Korrekturlæser: rehan09
Billed behandling: svedel77
Oversættelse: freak_master

Pristjek på http://www.pricerunner.dk 1000,00
Produkt udlånt af: HIS
DK distributør: Komplett.dk

Innovation/Teknologi

 

Det vælter ind med lanceringer af nye grafikkort for tiden – og AMD har føjet endnu et grafikkort til porteføljen, kaldet Radeon HD 6790 – ej at forveksles med HD 6970. Det nye kort er lillebror til Radeon HD 6850 (og 6870), og er derfor også baseret på samme GPU, med kodenavnet Barts. Grafikprocessoren på lillebror har dog fået betegnelsen Barts LE – Limited Edition, altså en begrænset version, hvor noget af chippen af deaktiveret fra fabrikken.

 



Dette indebærer naturligvis, at HD 6790 har de samme gode egenskaber som sine storebrødre, der bl.a. tilbyder forbedret Tesselation-ydelse kontra HD 5000-serien, hvor kortet tager lettere på tesselation de steder, hvor brugeren alligevel ikke ligger mærke til detaljer.



Lillebror er selvsagt ikke ligeså hurtig som storebror HD 6850. Forskellen er dog ikke så stor endda. HD 6790 har fået deaktiveret 160 streamprocessore, og har halvt så mange ROP-enheder. Til gengæld er GPU clock hævet med 65MHz til 840MHz. På hukommelsessiden tyder det dog på, at kortet har præcis de samme RAM – 1GB GDDR5 på en 256 bit bus.



Snakker vi rå ydelse, skulle HD 6790 yde 15-30% bedre end konkurrenten, GeForce GTX 550 Ti. AMD sælger da også kortet på, at det kan klare ”FULL HD GAMING”. Hvordan det netop klarer sig i denne desciplin, vil vi undersøge nærmere i test-afsnittet senere i denne anmeldelse.

 

Strømforbruget på HD 6790 er opgivet til 150 Watt – men udfra specifikationerne, kontra HD 6870 der bruger 150W, vurderer vi, at det reelle forbrug ligger på ca. 120 Watt ved fuld belastning og beskedne 19 Watt ved idle, hvilket er omtrent det samme som konkurrenten GeForce GTX 550 Ti, hvis TDP er opgivet til 116 Watt ved fuld belastning.

 

 

 

Teknologier i fokus


PowerTune

PowerTune er en videreudvikling af ATI PowerPlay, der i sin tid var forbeholdt ATI's grafikkort til bærbare computere. Teknologien sørgede for at justere grafikchippens strømtilførsel og clock, alt efter hvor stor belastning GPU'en blev udsat for. PowerPlay blev senere implementeret på hele Radeon-serien fra HD 3000-serien, hvor også highend grafikkort til stationære computere dragede nytte af teknologien.


       
 

Hidtil har der ”kun” været 3 belastningskategorier: Ingen belastning, mellem belastning, og høj belastning. Strømtilførsel og clockfrekvens har altså  været justeret på 3 niveauer. 
Nu har AMD taget skridtet videre og har raffineret teknologien, således at strømtilførsel og clock kan styres meget præcist. Hvis et spil eksempelvis kører med meget svingende framerate, vil PowerTune både op- og ned-justere clock således at frameraten stabiliseres. Og kører et spil med 200 billeder pr. sekund, hvor skærmen alligevel kan kan vise måske 50/100 billeder pr. sekund, nedsættes hastigheden på GPU'en, så strømforbruget sænkes uden det kan mærkes for brugeren. Hvor meget GPU clock skal kunne ændres, kan man naturligvis selv indstille i Catalyst Control Center under Overdrive.



Eyefinity

Eyefinity er i løbet af det seneste års tid virkelig blevet et af de helt store salgsparametre hos AMD. Teknologien tillader helt almindelige brugere med selv relativt billige Radeon grafikkort at tilkoble 2, 3, 4, 5 eller 6 skærme; noget der direkte udvider brugeroplevelsen voldsomt. Mest populær er naturligvis 3 skærme til spil; noget der førhen var forbeholdt specielle grafikkort fx fra producenten Matrox, hovedsageligt til brug i bl.a. flysimulatorer.


      


Anno 2010 er et setup med 3 skærme dog fuldt anvendeligt til en bred skare af spiltitler og -typer. Herover ses Colin McRae: DiRT og - selvfølgelig - World of Warcraft.



3 skærme kræver desuden ikke andet end 3 skærme med MiniDisplayPort. Skærme med andre typer tilslutninger kan dog også gøre det – så skal man bare være opmærksom på, at der kræves aktive adaptere. 
Læs evt. vores detaljerede anmeldelse af Eyefinity her: http://hwt.dk/literaturedetails.aspx?LiteratureID=17248



CrossFireX

CrossFireX er AMD's bud på nVidias famøse SLi. CrossFireX gør det muligt at sætte flere grafikkort sammen – 2, 3 eller 4 og dermed i teorien firdoble ydelsen. For at opnå den optimale ydelse med 2 kort skal man koble 2 ens Radeon grafikkort sammen med en CrossFireX-bro. Bundkortet det hele foregår på, skal naturligvis have 2 fysiske PCI-Express x16-porte, og skal understøtte CrossFireX – hvilket næsten alle ATX-bundkort i dag gør.



Den reelle ydelse man får ud af et CrossFireX setup varierer dog meget. AMD selv hævder, at CrossFireX skalerer næsten 200% med 2 kort i en række spiltitler – og selv har vi også oplevet, at ydelsen næsten fordobles med 2 kort i visse spiltitler. Det varierer dog fra spil til spil – og sætter man 3 eller 4 kort sammen, skal man ikke regne med at udnyttelsen af disse er i nærheden af de 100%.



Unified Video Decoder 3

Teknologien svarer på mange måder til den nyeste version af nVIDIAs Purevideo, der ligeledes er blevet integreret i deres mainstreamprodukter. UVD er baseret på ATi's Xilleon video processor , som var en 32 bit "system-on-a-chip" MIPS processor. Nu er den så blevet integereret i GPU'erne med det formål at aflaste CPU'en og få videomateriale til at tage sig bedre ud. Dette gøres vha. de-interlancing, farvejustering, og støjreduktion.
UVD3 kan håndtere BluRay-materiale med bitrates op til 40Mbit/s, og kan teoretisk set dekode alt materiale indenfor H.264, VC-1, MPEG4 og DivX/xVid video codec standarderne næsten uden CPU-kraft.


 


Herunder hører også Accelerated Video Transcoding, der får grafikkortet til at dekode videomateriale, således at man kan konvertere videomateriale langt hurtigere, end hvis CPU'en skulle gøre arbejdet alene. I praksis kan dette mere end halvere tiden, det tager at konvertere en fil – og med Windows 7 kan man benytte sig af ”Drag 'n drop”-transcoding, så man ikke engang behøver tredjeparts software. 
Også tredjepartsprogrammer såsom Cyberlink MediaShow Espresso kan udnytte Radeon grafikkort til at hjælpe med video-dekodning.



Enhanced Quality Anti-Aliasing

MSAA, som er en af de gængse standarder indenfor industrien, kender de fleste. Det er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. 


     


AMD har dog lanceret deres egen version, Morphological Anti-Aliasing, hvor de efter at have renderet et billede kører det igennem shaderen igen for at udglatte kanter. Dette skulle give et bedre billede med en minimal påvirkning af ydelsen.

 

(Tak til Emillos for dette afsnit)

Auxois
 
Overclocker
Tilføjet:
21-06-2011 13:45:45
Svar/Indlæg:
16/0
Fedt at I lige tester om "Full-HD gaming"-påstanden holder vand. Eller.



Håbløs test med en masse irrelevant information (softwareafsnittet især).

Hvorfor ikke også teste dem i nogle mere aktuelle spil, ja, nogle, som folk der køber grafikkort i dag rent faktisk spiller?


Og for at afslutte mit "rant", så er det rent ud sagt irriterende, at man ikke kan aflæse jeres benchmarks uden at skulle forstørre dem.

Jeg synes ærlig talt, at I burde skele til Toms og Guru3D...


Svaret blev redigeret 1 gang, sidst af Auxois d. 21-06-2011 13:46:50.


freak_master
 
Redaktør
Tilføjet:
21-06-2011 22:49:31
Svar/Indlæg:
6368/477
#1
"Full HD gaming" betyder jo blot 1080p opløsning. Mange programmer hvor der bliver kørt i 1600x1200 er fordi at programmet selv faktisk ikke kan komme højere, der bliver dog testet i 1080p i nogle tests.

Jeg ser ikke at nogen form for information omkring produktet er irrelavant. Der er mange der kigger efter måske en bestemt detalje der skal afgøre om det er kortet for ham/hende eller ikke. Irrelavant information er information der intet har med kortet at gøre, hvilke informationer har ikke noget med dette kort at gøre?

Jeg ved ikke med dig, men jeg har ikke råd til at købe alle de nyeste spil og teste der i. Jeg har fundet en masse benchmarks rundt omkring som har en stand-alone benchmark. Har du nogle forslag til hvilke andre spil der har dette vil jeg med glæde tage dem med fremover.

Grunden til at du skal forstørre graferne op må være at du køre med for høj en opløsning. Jeg køre med 1360x768 på en 42" skærm, jo vist den er stor, men selv på min bærbar med samme opløsning på en 15" skærm kan jeg sagtens se graferne uden at skulle trykke på dem. Bliver de større vil de også ødelægge layoutet i artiklen.


Salty
 
Elitebruger
Tilføjet:
23-06-2011 17:27:28
Svar/Indlæg:
330/33
#1 - Word.. Derfor jeg kun forholder mig til tests fra de 2 sider, der rent faktisk tester nye produkter i nuet, viser de forskellige opløsninger 🙂