Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Sapphire
DK distributør: MMD
 

Innovation/Teknologi 

 

- tak til Klaus S for store dele af innovationsafsnittet

Radeon HD 3870 X2 har været kendt i et stykke tid, da AMD egentlig præ-lancerede det i efteråret sammen med HD 3850 og HD 3870. Løsningen består af to RV670 GPU'er på samme PCB og er ifølge AMD en mere strømlinet løsning end NVIDIA's tidligere bud - herunder GeForce 7900GX2. For mere information om RV670 GPUen, tjek http://hwt.dk/literaturedetails.aspx?LiteratureID=8809

De to GPU'er snakker sammen via en intern bridge-løsning, der skulle sikre en ydelse på op mod 1.7x et single Radeon HD 3870.


 

  


Skaleringen af løsningen lover AMD til at være omkring 1.7x et Radeon HD 3870, men faktisk er tallene enkelte gange højere. Således skalerer kortet i 3DMark06 faktisk over 2x et Radeon HD 3870! Forklaringen er til dels en heftig driveroptimering, men dette alene kan naturligvis ikke forklare mere end den dobbelte ydelse. Forklaringen er derimod en meget høj clockfrekvens for de to GPU'er. I AMD's præsentationsmateriale loves der 825+ MHz, hvor det lille "+" fortæller at man selv så tæt på launch ikke havde fastlagt sine clockfrekvenser 100 %. Alt ser dog ud til at tyde på at 825Mhz er standard.

Vær opmærksom på at alle tests og grafer i dette innovation/teknologi afsnit stammer direkte fra ATi. For vores egne test-resultater: Tjek Test siden.

For dem der bare ikke kan få ydelse nok, har AMD for nyligt lanceret CrossfireX. 2 Radeon HD 3870 X2 kort vil yde over 2 Teraflops, mens 2 HD3850X2 vil yde lidt under. Fra starten lovede AMD/ATi, hvilket de holdt, at der fra start af ville være Fully unified og WHQL-certificerede drivere til alle operativsystemer. Især til Windows Vista, hvor man således også kan udnytte den megen power under DirectX 10.1.

En sidste ting omkring kortet er AMD's dedikation til deres PowerPlay teknologi. Radeon HD 3870 X2 bruger maksimalt 196W effekt - 4W mindre end Radeon HD 2900XT. Men hvor sidstnævnte altid trak 200W effekt, så kan HD 3870 X2 "skrue ned for blusset". Således vil kortet under "light gaming" kune trække ned mod 110W effekt. AMD kalder selv et spil som Lego Starwars for light gaming for at give et billede af hvornår man går fra det ene til det andet. Endnu bedre er strømforbruget idle, hvor man er nede på 47W - det er faktisk ganske imponerende.

 

 

 

 

Yderligere egenskaber

Nedenstående med undtagelse af UVD-afsnittet er venligst udlånt af red_martians

 
 
 
 
AVIVO HD

Er ATi’s ord for video-dekodning. Radeon HD2xxx-serien har selvfølgelig AVIVO-egenskaber, der nu er blev udvidet med en HD-betegnelse. AVIVO beskriver bl.a. muligheden for HD-dekodning der, med det nye Digitale TV, HD-DVD’er og BluRay-Diske, er muligt. Med HD 2xxx-serien er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. AVIVO HD's mest interessante egenskab er muligheden for tilslutning af HDMI. Generelt har det ikke være nogen umulighed tidligere, men HD 2xxx-serien tillader at streame lyd igennem grafikkortet og bundkortet uden brug af ekstra kabler. Selvom kortet ikke har noget HDMI-stik kan man via en speciel DVI til HDMI-adaptor fra ATi få overført lyden sammen med.
 
Unified Video Decoder (en opdateret del til AVIVO HD)
 
En spritny teknologi fra AMD/ATi, der er blevet implementeret på HD 2400 og HD 2600, og nu også HD3000-serien. Teknologien svarer på mange måder til den nyeste version af nVIDIA's Purevideo, der ligeledes er blevet integreret i deres mainstreamprodukter. UVD er baseret på ATi's Xilleon video processor, som var en 32 bit "system-on-a-chip" MIPS processor. Nu er den så blevet integereret i GPU'erne, til formål at aflaste CPUen og få videomateriale til at tage sig bedre ud.
 
UVD'en kan håndtere Blu-ray- og HD-DVD-videomateriale med bitrates op til 40Mbit/s, og kan teoretisk set dekode alt materiale indenfor H.264 og VC-1 video codec standarderne fuldstændigt uden CPU-kraft; hvilket konkurrentens PureVideo ikke er i stand til.
 
CrossfireX

De nye Radeon grafikkort har den nyeste form for CrossFire som vi tidligere har set på Radeon X1950pro og X1650XT. Det tillader en full-duplex overførsel som gør at grafikkortene nu kan snakke sammen. Teknologien minder på mange måder om nVidia's SLi, hvor man forbinder grafikkortene med hinanden inde i maskinen. Tidligere foregik det med CrossFire gennem et DVI-kabel, hvor et specielt master-card tog sig af at kode og sammenflette billedet fra det almindelige grafikkort med sit eget. 

2 stk RV680/HD3870X2 i CrossFire. 4 GPU'er i alt!

Men med HD3000-serien er der også kommet understøttelse for QUAD-GPU CrossFire, kaldet CrossFireX, som dog umiddelbart kan virke lidt ubrugeligt. Men faktisk er der rigtigt mange AMD-baserede bundkort på vej med 4 PCI-Express x16(x8 elektrisk), så det altså bliver muligt at smide 4 grafikkort på et bundkort. Selvom dette for nogen kan lyde helt vildt, er der alligevel endnu en mening med galskaben - for HD3870X2 har jo CrossFire stik. Så man kan altså, hvis man ejer et AMD- eller INTEL-baseret bundkort, sætte sådan 2 sammen, så man i alt får 4 grafikprocessorer til rådighed.

 

 

FSAA

Står for Full Scene Anti-Aliasing og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter.

HD 2900 har standard op til 8xFSAA men en ny speciel type gør at man kan nå helt op til 16xFSAA (dog kaldet CFAA). Metoden er reelt lidt fræk, da den enkelte pixel bruger sine nabo-pixels til at beregne sin egen farve. Så det er reelt at snyde lidt, men det må indrømmes at det fungerer ganske godt, og at ydelsen faktisk er god.

 
 

Texture-Filtrering

Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør at overgangene mellem de dele med færre detaljer op til dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotropisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. Ligesom nVidia har ATi valgt at bruge en ny løsning der giver meget høj kvalitet.

Man går faktisk tilbage til den oprindelige metode, der var ganske tung, men utrolig flot. Så den er ikke ny, men flot gammel og langsom. Det nye er at grafikkortene nu kan håndtere at arbejde med så tunge beregninger uden at ydelsen falder voldsomt. I kontrolppanelet har den nye (gamle) egenskab "kvalitet", hvor den tidligere brugte metode hed "ydelse". 

Havok physics

Ligesom nvidia kan ATi’s unified shader håndtere fysik-beregninger uden ekstra grafikkort. Det gør at man reelt ikke behøver et Physics-kort længere, men det vil også betyde at fysikken vil kunne sænke ydelsen på grafikkortet. Men ligesom hos nvidia lyder det som et spændende tiltag. Ligesom hos nvidia, vil det blive "unified shader" der skal håndtere dette arbejde. Indtil videre er det hos ATi oftest set som et ekstra grafikkort der alene tager sig af fysik-beregningerne. Fysik giver mere livagtige og naturlige bevægelser, samt at det kan håndtere langt flere bevægelelser end tidligere. Begge dele er meget lange og vanskelige beregninger der kan få selv den ondeste Quad-core til at blive stresset, men altså ikke et grafikkort.

Gripen90
 
Senior Skribent
Tilføjet:
11-06-2008 09:14:35
Svar/Indlæg:
15982/637
Rent faktisk rygtes det, at samarbejdet er så tæt, at firmaet producerer AMD/ATi's reference grafikkort.

Det er faktisk ikke et rygte med reelt nok. Helt tilbage til 1997 (så hut jeg visker) var Sapphire og Powercolor (dengang begge uden navn) sammen med ATi til at producere ATi's egne kort også reference kort. Det var først omkring midten af 2001 hvor ATi frigav licensen til sine "producenter" og hermed lod dem producere kort med ATi chipset men under deres eget Firmamærke. 🙂


NOXdk19
 
Superbruger
Tilføjet:
11-06-2008 10:46:26
Svar/Indlæg:
143/4
Jeg forstår simpelthen ikke hvordan I kan give det 4/5 i ydelse.

8800GTS til 1300kr ligger ofte på samme frames eller over og det er altså et kort til 600kr mindre.

Det eneste jeg kan se udfra de ydelsesgrafer er at 3870x2 er skide god til 3dmark og ikke til så meget andet.

Jeg ville have givet det 2/5 i ydelse, da du fx kan købe to 8800GT'er i SLI og et billigt 750i bundkort som vil lammetæve det grafikkort.


#3
CF
 
Elitebruger
Tilføjet:
11-06-2008 11:24:18
Svar/Indlæg:
4689/105
#2 Kortet yder jo som sådan ikke dårligt. Problemet er bare at meget få spil understøtter CrossFire ordenligt. Hvis alle spil understøttede CrossFire fuldt ud, ville det her virkelig være et sygt grafikkort. Det er bare CrossFire understøttelse vi mangler.


Emillos
 
Overclocker
Tilføjet:
11-06-2008 11:41:07
Svar/Indlæg:
14079/622
->#1

Okay, jeg var faktisk ikke helt sikker på, at det var rigtigt. 🙂


->#2

Som #3 påpeger, er det meget afhængigt af, hvad man spiller. Konkluderer du andet, har du efter min mening ikke læst testen særlig grundigt. Desuden vil du til dels stå i samme situation, med manglende Multi-GPU understøttelse, såfremt du investerer i SLi.
Ser du et kort som 9800GTX, som næsten koster det samme til kortet her, får det rimeligt pænt smæk i 3dmark, S.T.A.L.K.E.R., PREY; og til dels i Crysis, når der kommer AA/AF på. I andre spil som understøtter CrossFire, vil 9800GTX ligeså tabe pænt. Og husk desuden på, at det altid er de sidste 10-20% i ydelse, der virkelig koster knaster.

Ikke desto mindre er jeg helt enig i, at 8800GT er et langt bedre køb. :yes:


lumske
 
Elitebruger
Tilføjet:
11-06-2008 13:52:48
Svar/Indlæg:
3485/76
#2 nu er der godt nok ikke opgivet hvilken opløsning der er testet i i halvdelen af spilene, men dem der er er det hovedsagligt 1280x1024 med intet eyecandy, et kort som det her skal HØJT op i opløsningerne før det viser hvad det kan, ligesom 8800gt slår 8800gtx i de lave opløsning for det smæk i høje med meget AA og eyecandy, så jeg ville ikke sige man kan argumentere for et 2 tal OVERHOVEDET 😉

#0 hvis du havde brugt amdgpuclocktool kunne du nok godt, hvis du stadig har kortet, så prøv lige, det virker rigtig godt for mig, der kan du også indstille hver enkel core og hver af den mængde ram der følger med til hver gpu, selvom det nok er bedst at stille rammene til det samme 🙂 med hævet volt, kan jeg få mit til at bench ved 945 på hver core indtil videre med det program 🙂


Emillos
 
Overclocker
Tilføjet:
11-06-2008 13:58:31
Svar/Indlæg:
14079/622
->#5

AMDClockGPUTool prøvede jeg, og det fungerede slet ikke. Om det var fordi jeg ikke kunne finde en version der var tilstrækkelig ny, ved jeg ikke. Men jeg prøvede ihærdigt, helt uden held.


Tenkin
 
Elitebruger
Tilføjet:
11-06-2008 14:07:24
Svar/Indlæg:
3332/33
jeg forstår simpelthen ikke de frames per second der 😕 burde det her kort ikke være bedre end lillebroderen, 3850x2, og de fleste andre kort ? 😲 i don't get it ?


Emillos
 
Overclocker
Tilføjet:
11-06-2008 14:10:38
Svar/Indlæg:
14079/622
->#7

Det er det skam også.
Det er ikke ubetinget bedre end HD3850X2 CrossFireX - men CrossFireX er jo 2 kort skal du tænke på. :yes:


Cyrezz
 
Overclocker
Tilføjet:
11-06-2008 15:35:31
Svar/Indlæg:
581/24
#7

Det er 2X 3850X2, som vinder over 3870X2 - ikke ét 3850X2 🙂


Tenkin
 
Elitebruger
Tilføjet:
11-06-2008 15:52:37
Svar/Indlæg:
3332/33
#9 arhh. 😛 . men hvad så med de andre ? 8800gts owner da rimelig meget der :S synes det er lave fps i forhold til hvad man ellers har hørt om kortet.


hamderD
 
Elitebruger
Tilføjet:
11-06-2008 17:01:44
Svar/Indlæg:
7263/260
God test 🙂


hot_fifty
 
Elitebruger
Tilføjet:
11-06-2008 20:42:39
Svar/Indlæg:
900/20
synd du ikke kan teste eller har testet i større opløsninger. 1920*1200 f.eks


jesdals
 
Overclocker
Tilføjet:
15-06-2008 06:45:18
Svar/Indlæg:
5/0
Fint test, men der er dog en ting jeg faldt over - under Crysis med alt slået til, skriver du at kortet klarer sig nogenlunde som et 9800GTX - men reelt er kortet bedre udfra graferne? Det er lidt uheldigt, da kortet jo faktisk er bedre i et af de mest krævende spil man pt kan smide efter en Vista Platform. Men det kan selvfølgelig være, at jeg læser graferne forkert - men umiddelbart ser det altså ud som om HD3870x2 klarer sig bedst i den højeste setting og BOX x 8 er jo lig en 24x AA setting på ATI kortene. Forskellen er iøvrigt på små 5 FPS, men alligevel 22 mod 17 for et 9800GTX


Emillos
 
Overclocker
Tilføjet:
15-06-2008 23:41:07
Svar/Indlæg:
14079/622
Det er korrekt, at kortet ved visse indstillinger yder betydeligt bedre end 9800GTX. Til gengæld taber det også til selv samme kort ved andre indstillinger. Jeg tolker blot ydelsen overordnet set, uden at gå så meget i detaljer.
Men du har helt ret. :yes: