Test: AMD Radeon HD 6950

Grafikkort, AMD/ATI d.  26. december. 2010, skrevet af Cook 13 Kommentarer.  Vist: 14688 gange.

Korrekturlæser: Verdenshersker
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: AMD
DK distributør: AMD

Innovation/Teknologi

 

AMD Radeon HD 6950 er som sagt landet lidt i ingenmandsland. Konkurrenten nVidia, der med sit GeForce GTX 570 kæmper mod AMD's Radeon HD 6970, og med sit GTX580 kæmper mod det ældre dobbeltchippede HD 5970, har altså ikke nogen direkte pendant til dette kort. Rygterne siger dog, at det grønne hold inden længe vil komme med deres modspil kaldet GTX 560.

Pt. har kortet til formål at udfylde imellem HD 6870 til 1700kr og HD 6970 til 2600kr. Det er da efterhånden også blevet direkte kendetegnende for AMD, at de har et produkt til enhver pengepung.
 

 

  Radeon HD 6970 Radeon HD 6950 Radeon HD 6870 Radeon HD 5850
Produktionsteknologi 40 nm 40 nm 40 nm 40 nm
Chipstørrelse 389 mm^2 389 mm^2 255 mm^2 334 mm^2
Transistore 2,64 milliarder 2,64 milliarder 1,7 milliarder 2,15 milliarder
GPU clock 880 MHz 800 MHz 900 MHz 725 MHz
Stream processore 1536 1408 1120 1440
Teksturenheder 96 88 56 72
ROPs 32 32 32 32
RAM mængde, type 2GB GDDR5 2GB GDDR5 1GB GDDR5 1GB GDDR5
RAM clock 1375 MHz 1250 MHz 1050 MHz 1000 MHz
RAM bus 256 bit 256 bit 256 bit 256 bit
RAM båndbredde 176 GB/s 160 GB/s 134,4 GB/s 128 GB/s
PowerTune Max. forbrug 250 Watt 200 Watt N/A N/A
Typisk strømforbrug 190 Watt 140 Watt 151 Watt 170 Watt
Typisk idleforbrug 20 Watt  20 Watt 19 Watt 27 Watt

 


Traditionen tro har vi selvfølgelig at gøre med en nedgraderet version af kortets storebror - i dette tilfælde Radeon HD 6970. Der er den helt samme GPU på HD 6950/6970; forskellen ligger i, at AMD fra fabrikken har deaktiveret visse dele af chippen, så den ikke er helt så kraftig som topkortets GPU. Vi kan se, at der er skåret 128 Stream processore og 8 teksturenheder væk - og så er lillebror clocket 80 MHz lavere end storebror på GPU og 125 MHz lavere på hukommelsen.


 
 

Umiddelbart virker HD 6950 ikke hurtigere end forgængeren HD 5850. Eksempelvis har det nye kort 32 færre Stream processore end HD 5850. Til gengæld har HD 6950 16 flere teksturenheder, dobbelt så stor - og hurtigere - hukommelse.

Dette kan tilskrives AMD's nye forbedrede GPU-arkitektur, kaldet VLIW4, som skal forbedre GPU'ens ydelse, især med henblik på Tesselation og 32bit Floating Point operationer, der skulle være forbedret med hhv. 300% og 400% i forhold til artikitekturen i RV870(HD 5870/5850). Ifølge AMD giver dette en typisk merydelse på 44% i spillet ”STALKER – CoP”, mens ydelsen i ”Unigine Heaven”-benchmarken skulle være forbedret med hele 69%. Og da det netop er disse Tessalation-tunge applikationer nVidia har siddet på, og da det efter alt at dømme er tendensen på spilmarkedet, giver forbedringerne rigtig god mening.
 

    
 

Forbedringerne har da heller ikke gjort Cayman-chippen hverken mindre eller mere strømbesparende. Faktisk har forbedringerne kostet næsten 500 millioner ekstra transistore på GPU'en, der nu sammenlagt består af hele 2,64 millarder af slagsen. Dette betyder, at chippen har fået vokseværk fra RV870's 334 mm^2 til 389 mm^2. Bagsiden af medaljen er altså at chippen er blevet dyrere end sin forgænger – et robust design koster. Der er dog stadig et stykke op til GTX 580, der består af 3,01 milliarder transistore.


 


Som følge af den større GPU, siger logikken, at strømforbruget også skulle være steget ift. HD 5850. Det lader dog til, at strømforbruget ift. HD 5850 tværtimod er faldet, således at det er på niveau med HD 6870, der bruger omkring 150 Watt ved fuld belastning. Ubelastet skulle HD 6950 blot bruge 20 W - en anelse lavere end HD 5850, der i forvejen havde et lavt strømforbrug her (vore egne målinger følger naturligvis i Test-afsnittet).

Hvis man benytter højeste indstilling i PowerTune, kan strømforbruget dog ligge på maksimalt 200 Watt. AMD har dog med PowerTune også muliggjort, at kortet kan justere strømforbruget meget præcist efter brugerens ønske, så det kan blive endnu lavere end de opgivede "typiske" 140 Watt – mere herom længere nede.



 

De cirka 140 Watts varmeafgivelse burde ikke være voldsomt svært at flyye. Og da AMD benytter sig af en stor køler med Vapor Chamber teknologi – lidt ala en forvokset heatpipe – skulle kortet være særdeles støjsvagt.

Som noget helt nyt i HD 6900-serien leveres HD 6950 med dual BIOS, så man aldrig vil stå med at dødt grafikkort efter en BIOS-updatering/modificering. Det vil med garanti glæde en håndfuld overclockere.


 

Teknologier i fokus


PowerTune

PowerTune er en videreudvikling af ATI PowerPlay, der i sin tid var forbeholdt ATI's grafikkort til bærbare computere. Teknologien sørgede for at justere grafikchippens strømtilførsel og clock, alt efter hvor stor belastning GPU'en blev udsat for. PowerPlay blev senere implementeret på hele Radeon-serien fra HD 3000-serien, hvor også highend grafikkort til stationære computere dragede nytte af teknologien.


       
 

Hidtil har der ”kun” været 3 belastningskategorier: Ingen belastning, mellem belastning, og høj belastning. Strømtilførsel og clockfrekvens har altså  været justeret på 3 niveauer. 
Nu har AMD taget skridtet videre og har raffineret teknologien, således at strømtilførsel og clock kan styres meget præcist. Hvis et spil eksempelvis kører med meget svingende framerate, vil PowerTune både op- og ned-justere clock således at frameraten stabiliseres. Og kører et spil med 200 billeder pr. sekund, hvor skærmen alligevel kan kan vise måske 50/100 billeder pr. sekund, nedsættes hastigheden på GPU'en, så strømforbruget sænkes uden det kan mærkes for brugeren. Hvor meget GPU clock skal kunne ændres, kan man naturligvis selv indstille i Catalyst Control Center under Overdrive.



Eyefinity

Eyefinity er i løbet af det seneste års tid virkelig blevet et af de helt store salgsparametre hos AMD. Teknologien tillader helt almindelige brugere med selv relativt billige Radeon grafikkort at tilkoble 2, 3 , 4, 5 eller 6 skærme; noget der direkte udvider brugeroplevelsen voldsomt. Mest populær er naturligvis 3 skærme til spil; noget der førhen var forbeholdt specielle grafikkort fx fra producenten Matrox, hovedsageligt til brug i bl.a. flysimulatore.


      


Anno 2010 er et setup med 3 skærme dog fuldt anvendeligt til en bred skare af spiltitler og -typer. Herover ses Colin McRae: DiRT og - selvfølgelig - World of Warcraft.



3 skærme kræver desuden ikke andet end 3 skærme med MiniDisplayPort. Skærme med andre typer tilslutninger kan dog også gøre det – så skal man bare være opmærksom på, at der kræves aktive adaptere. 
Læs evt. vores detaljerede anmeldelse af Eyefinity her: http://hwt.dk/literaturedetails.aspx?LiteraturePageID=17248



CrossFireX

CrossFireX er AMD's bud på nVidias famøse SLi. CrossFireX gør det muligt at sætte flere grafikkort sammen – 2, 3 eller 4 og dermed i teorien firdoble ydelsen. For at opnå den optimale ydelse med 2 kort skal man koble 2 ens Radeon grafikkort sammen med en CrossFireX-bro. Bundkortet det hele foregår på, skal naturligvis have 2 fysiske Pci-Express x16-porte, og skal understøtte CrossFireX – hvilket næsten alle ATX-bundkort i dag gør.



Den reelle ydelse man får ud af et CrossFireX setup varierer dog meget. AMD selv hævder, at CrossFireX skalerer næsten 200% med 2 kort i en række spiltitler – og selv har vi også oplevet, at ydelsen næsten fordobles med 2 kort i visse spiltitler. Det varierer dog fra spil til spil – og sætter man 3 eller 4 kort sammen, skal man ikke regne med at udnyttelsen af disse er i nærheden af de 100%.



Unified Video Decoder 3

Teknologien svarer på mange måder til den nyeste version af nVIDIAs Purevideo, der ligeledes er blevet integreret i deres mainstreamprodukter. UVD er baseret på ATi's Xilleon video processor , som var en 32 bit "system-on-a-chip" MIPS processor. Nu er den så blevet integereret i GPU'erne med det formål at aflaste CPUen og få videomateriale til at tage sig bedre ud. Dette gøres vha. de-interlancing, farvejustering, og støjreduktion.
UVD3 kan håndtere BluRay-materiale med bitrates op til 40Mbit/s, og kan teoretisk set dekode alt materiale indenfor H.264, VC-1, MPEG4 og DivX/xVid video codec standarderne næsten uden CPU-kraft.


 


Herunder hører også Accelerated Video Transcoding, der får grafikkortet til at dekode videomateriale, således at man kan konvertere videomateriale langt hurtigere, end hvis CPU'en skulle gøre arbejdet alene. I praksis kan dette mere end halvere tiden, det tager at konvertere en fil – og med Windows 7 kan man benytte sig af ”Drag 'n drop”-transcoding, så man ikke engang behøver tredjeparts software. 
Også tredjepartsprogrammer såsom Cyberlink MediaShow Espresso kan udnytte Radeon grafikkort til at hjælpe med video-dekodning.



Enhanced Quality Anti-Aliasing

MSAA, som er en af de gængse standarder indenfor industrien, kender de fleste. Det er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. 


     


AMD har dog lanceret deres egen version, Morphological Anti-Aliasing, hvor de efter at have renderet et billede kører det igennem shaderen igen for at udglatte kanter. Dette skulle give et bedre billede med en minimal påvirkning af ydelsen.

 

(Tak til Emillos for dette afsnit)

john_doe_dk
 
Elitebruger
Tilføjet:
26-12-2010 11:08:28
Svar/Indlæg:
303/32
HVor meget ydelse giver det Nvidia at kortene er de eneste, der kan benytte PhysX teknologien, i forhold til Ati i spil. tænker på spil som call of duty: black ops. BC 2 og lignede nyere spil.

?? 🙂


martinbg
 
Elitebruger
Tilføjet:
26-12-2010 12:36:11
Svar/Indlæg:
2076/119
#1

du får ikke flere FPS, det er noget med hvad du ser på skærmen, men du skal tænke på at ATI har Havok som sådan set er det samme som PhysX :)


Tha_noob
 
Elitebruger
Tilføjet:
26-12-2010 12:46:09
Svar/Indlæg:
3854/175
#0 du skriver i pris-point: nVidia har sovet i timen, fordi de ikke har nogen reel konkurrent til 6950.. Det har de da, den er bare ikke udkommet endnu, navnet er 560, GTX 560 hehe 🙂 AMD mangler jo også en konkurrent til 580 - her kan man så sige det ligger og slogs med 5970


Gylle
 
Elitebruger
Tilføjet:
26-12-2010 15:06:24
Svar/Indlæg:
1704/19
#3

Hvordan kan du sige at de har en konkurrent når man ikke kan købe det endnu ??

Når en vare ikke er tilgængelig så kan man da ikke sige at de er en man kan sammenligne med og samme gælder det du skriver om 580.

Drengen uden hænder " mor mor må jeg ikke få nogle kager" "jo min skat du åbner bare dåsen og tager dem du vil ha"


tom81
 
Elitebruger
Tilføjet:
26-12-2010 16:01:11
Svar/Indlæg:
20170/383

#3

Du kan godt selv se det du skriver er lidt af en selvmodsigelse, ikke?


phg
 
Elitebruger
Tilføjet:
26-12-2010 19:10:25
Svar/Indlæg:
1399/43
#2
er havok det samme som phys-x? dvs et spil der understøtter phys-x får du samme billede med et ATI kort som med et nvidia kort,eller er det 2 forskelige ting der virker på hver sin måde


martinbg
 
Elitebruger
Tilføjet:
26-12-2010 19:14:45
Svar/Indlæg:
2076/119
#6

Altså de laver sådan set det sammen, men spil som er PhysX undersøtte kan ikke bruge havok og omvendt :)


phg
 
Elitebruger
Tilføjet:
26-12-2010 22:18:10
Svar/Indlæg:
1399/43
ja så har nvidia lidt en fordel ,jeg har set flere spil der understøtter phys-x end havok


F!X
 
Overclocker
Tilføjet:
26-12-2010 22:56:33
Svar/Indlæg:
129/8
Så har du godt nok ikke set meget.

Havok har langt flere spil.

Havok = http://www.havok.com/index.php...

Phys-x = http://www.geforce.com/ #/GamesandApps

Hvilke spiltitler man så kan li' bedst er op til en selv.

Jeg synes f. eks ikke Phys-x er værd at betale ekstra for - jeg ser det mere som en bonus og vælger kort udfra ydelse, støj og pris.

Man kan også køre Phys-x med AMD kort. Det er bare to af de nogenlunde samme teknologier, den ene er bare meget mere obs på at lyde "ekslusiv" uden egentligt at være det. Kort fortalt.



#10
F!X
 
Overclocker
Tilføjet:
26-12-2010 23:08:23
Svar/Indlæg:
129/8
Jeg kan se man er nødt til at trykke på Phys-x nede til venstre, når er på geforce.com.


#11
phg
 
Elitebruger
Tilføjet:
27-12-2010 00:11:06
Svar/Indlæg:
1399/43
#9
ja man lærer jo noget nyt hverdag 😀
virker Havok ganske automatisk når man spiller en af de titler det understøtter,syntes ikke jeg har lagt mærke til at det er noget man behøver eller kan slå til og fra i driveren


SpaceDog
 
Elitebruger
Tilføjet:
27-12-2010 03:07:54
Svar/Indlæg:
1455/78
og hvis man er heldig, så kan man unlock de sidste 128 shaders, som er disabled

http://forums.guru3d.com/showt...


slate_dk
 
Superbruger
Tilføjet:
27-12-2010 11:06:10
Svar/Indlæg:
651/11
Linker lige til W1zzard's oprindelige unlock artikel med info, filer osv http://www.techpowerup.com/art...

Ifølge kommentarene til artiklen vil 6950 blive en mangelvare i nær fremtid