Test: Gigabyte HD4870

Grafikkort, AMD/ATI d.  15. juli. 2008, skrevet af JacobHL 37 Kommentarer.  Vist: 22808 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Gigabyte
DK distributør: Nordisk Distribution

 

 

Innovation/Teknologi
 
 

Med R770 er ATi efterhånden ved at have gjort op med det ry firmaet fik efter R600 (som blev brugt i HD2900). RV670-kernen tog de første skridt på at rette op på denne, selvom RV670 var opbygget på nogenlunde samme måde som R600. R770 er dog anderledes opbygget. F.eks. har man ikke længere en delt L2 cache, men i stedet en enkelt L1 cache til hver Texture Unit. Dvs. vi har 10 L1 caches der kan kommunikere med 4 L2 cacher (med hver sin memorycontroller) igennem crossbaren.


R770 har beholdt samme produktionsteknologi som RV670, dvs. en transistortæthed på 55nm. Transistortallet er dog gået en hel del op - fra 666 millioner til 956 millioner, hvilket tilsvarende har øget chiparealet fra 190mm² til 260mm². Dette gør denne chip dyrere at producere end RV670, men heldigvis er ydelsen også tilsvarende god som vi snart vil se i ydelsesafsnittet.

 
Faktisk så har AMD lavet et fint comparediagram hvor de sammenligner med HD3800(RV670)-serien, og det skal i da ikke snydes for. Hvad der især er spændende her, er de 800 shaders (ALU's) i forhold til RV670's 320. Denne information kom først ud ret sent som følge af AMD's personaleudskiftninger (for at forhindre informationleaks) hvilket tilsyneladende har chokeret nVidia.


 

Her til sidst, inden vi kommer til de yderligere egenskaber, skal vi også lige introducere DirectX 10.1, som RV670 er den første chip til at understøtte. Iblandt ændringerne ift. DirectX 10.0 kan nævnes 32bit floating point præcision fremfor 16bit. Derudover er der blevet ændret lidt på texture-komprimeringerne, og så har PixelShader 4.1 tilsluttet sig. Når alt kommer til alt, er der altså ikke den store forskel - så det sidste decimal kan altså sagtens undværes. Men det er nu meget rart at have det nyeste af det nye alligevel.



Yderligere egenskaber

Nedenstående med undtagelse af UVD-afsnittet er venligst udlånt af red_martians

 
 
 
 
AVIVO HD

Er ATi’s ord for video-dekodning. Radeon HD2xxx-serien har selvfølgelig AVIVO-egenskaber, der nu er blev udvidet med en HD-betegnelse. AVIVO beskriver bl.a. muligheden for HD-dekodning der med det nye Digitale TV, HD-DVD’er og BluRay-Diske’er er muligt. Med HD 2xxx-serien er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. AVIVO HD's mest interessante egenskab er muligheden for tilslutning af HDMI. Generelt har det ikke være nogen umulighed tidligere, men HD 2xxx-serien tillader at streame lyd igennem grafikkortet og bundkortet uden brug af ekstra kabler. Selvom kortet ikke har noget HDMI-stik kan man via en speciel DVI til HDMI-adaptor fra ATi få overført lyden sammen med.
 
Unified Video Decoder (en opdateret del til AVIVO HD)
 
En spritny teknologi fra AMD/ATi der er blevet implementeret på HD 2400 og HD 2600, og nu også HD4000-serien. Teknologien svarer på mange måder til den nyeste version af nVidia's PureVideo, der ligeledes er blevet integreret i deres mainstreamprodukter. UVD er baseret på ATi's Xilleon video processor, som var en 32 bit "system-on-a-chip" MIPS processor. Nu er den så blevet integereret i GPU'erne, til formål at aflaste CPU'en og få videomateriale til at tage sig bedre ud.
 
UVD'en kan håndtere Blu-ray- og HD-DVD-videomateriale med bitrates op til 40Mbit/s, og kan teoretisk set dekode alt materiale indenfor H.264 og VC-1 video codec standarderne fuldstændigt uden CPU-kraft, hvilket konkurrentens PureVideo ikke er i stand til.
 
Crossfire

De nye Radeon grafikkort har den nyeste form for CrossFire som vi tidligere har set på Radeon X1950pro og X1650XT. Det tillader en full-duplex overførsel som gør at grafikkortene nu kan snakke sammen. Teknologien minder på mange måder om nVidia's SLi hvor man forbinder grafikkortenene med hinanden inde i maskinen. Tidligere foregik det gennem et DVI-kabel, hvor et specielt master-card tog sig af at kode og sammenflette billedet fra det almindelige grafikkort med sit eget. 

2 stk RV680/HD3870X2 i CrossFire. 4 GPU'er i alt!

Men med HD3000-serien er der også kommet understøttelse for QUAD-GPU CrossFire, som dog umiddelbart kan virke lidt ubrugeligt. Men faktisk er der rigtigt mange AMD-baserede bundkort på vej med 4 PCI-Express x16(x8 elektrisk), så det altså bliver muligt at smide 4 grafikkort på et bundkort. Selvom dette for nogen kan lyde helt vildt, er der alligevel endnu en mening med galskaben - for ATi's tidligere flagskib - RV680/HD3870X2 - er et kæmpe kort med 2 GPU'er på ét PCB. Og med Quad-GPU CrossFire bliver det altså muligt at sætte sådan 2 sammen. Denne mulighed har man naturligvis også med HD4000-serien.

 

FSAA

Står for Full Scene Anti-Aliasing, og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter.

HD 2900 har standard op til 8xFSAA, men en ny speciel type gør at man kan nå helt op til 16xFSAA (dog kaldet CFAA). Metoden er reelt lidt fræk da den enkelte pixel bruger sine nabo-pixels til at beregne sin egen farve. Så det er at snyde lidt, men det må indrømmes at det fungerer ganske godt og at ydelsen faktisk er god.

 
 

Texture-Filtrering

Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør, at overgangene mellem de dele med færre detaljer og dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotropisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. Ligesom nVidia, har ATi valgt at bruge en ny løsning der giver meget høj kvalitet.

Man går faktisk tilbage til den oprindelige metode, der var ganske tung men utrolig flot. Så den er ikke ny - men flot, gammel og langsom. Det nye er at grafikkortene nu kan håndtere at arbejde med så tunge beregninger, uden at ydelsen falder voldsomt. I kontrolpanelet har den nye (gamle) egenskab "kvalitet", hvor den tidligere brugte metode, hedder "ydelse". 

Havok physic

Ligesom nVidia, kan ATi’s unified shader håndtere fysik-beregninger uden ekstra grafikkort. Det gør at man reelt ikke længere behøver et Physics-kort, men det vil også betyde at fysikken vil kunne sænke ydelsen på grafikkortet. Ligesom hos nVidia, lyder det som et spændende tiltag, og - igen - som hos nVidia, vil det blive "unified shader" der skal håndtere dette arbejde.

Indtil videre er det hos ATi oftest set som et ekstra grafikkort der alene tager sig af fysik-beregningerne. Fysik giver mere livagtige og naturlige bevægelser, samt at det kan håndtere langt flere bevægelser end tidligere. Begge dele er meget lange og vanskelige beregninger, der kan få selv den ondeste Quad-core cpu til at blive stresset, men altså ikke et grafikkort.

Gripen90
 
Senior Skribent
Tilføjet:
15-07-2008 08:25:33
Svar/Indlæg:
15982/637
Fint !. Der skal bare byttes rundt på Prey og X3 graferne og teksten skal også lige rettes fra X2 til X3 😉

Sidst - nu er det vist et godt incitament til at få Vantage ind i testen jvf. 3Dmark resultaterne.


Xtream_metro
 
Elitebruger
Tilføjet:
15-07-2008 10:02:14
Svar/Indlæg:
252/18
kunnge godt være der skulle lidt mere power i den cpyu for at håntere det kort..


jeg tror ikke cpuen kan føde Det GFX derfor den lave score i 3dmark..

har set andre steder at kortet kommer over 13000. point


gabbadoo
 
Elitebruger
Tilføjet:
15-07-2008 10:07:05
Svar/Indlæg:
3065/208
#1 Tak for det, har lige rykket lidt rundt på det 🙂


zzolio
 
Elitebruger
Tilføjet:
15-07-2008 10:59:26
Svar/Indlæg:
431/26
hvorfor har i ikke Sammenlignet med 280gtx 9800gtx


Overbuary
 
Elitebruger
Tilføjet:
15-07-2008 13:13:00
Svar/Indlæg:
1762/50
#2

Mit kort scorer næsten 16k stock, med en Q9450 @ 3.6GHz!


MadsH
 
Elitebruger
Tilføjet:
15-07-2008 15:14:36
Svar/Indlæg:
1915/57
Fin test ja. Men vil give #1 ret. Der må nogle vantage tests til. 3Dmark06 er ekstrem cpu afhængig så hvis man ikke har en maniac cpu kan det snyde helt vildt.
Jeg fik 1500 p mere i 06 da jeg satte et ekstra kort i maskinen, hvorimod jeg steg over 50% i ydelse i vantage.


MadsH
 
Elitebruger
Tilføjet:
15-07-2008 15:14:46
Svar/Indlæg:
1915/57
Shit. Dobbelt post 😩


saiot
 
Elitebruger
Tilføjet:
15-07-2008 17:26:39
Svar/Indlæg:
7111/480
fedt med en samenlining med 8800GT 😀 overvejer lidt det her kort da jeg er blivet ½ enig med mig selv om HD4870X2 vil spange min el måler 😲


Gripen90
 
Senior Skribent
Tilføjet:
15-07-2008 18:06:39
Svar/Indlæg:
15982/637
#2: Nej 3Dmark06 er bare outdated til den nyere generation CPU og GFX. Fx min HTPC i profilen taber stort i 3Dmark06 til en E8400 med 8800GTS (10'900point vs ca 12´500 point) , men smækker jeg den en tur igennem Vantage så kommer der virkelig andre boller på suppen... så Vantage is the way to go.


Sønne
 
Elitebruger
Tilføjet:
15-07-2008 18:55:21
Svar/Indlæg:
2263/135
Som #4 siger, hvorfor har i ikke givet det noget modstand. I stedet for at kører det mod et 8600 og lidt der omkring? Lidt fladt syntes jeg. Så er det jo klart det har den høje score i forhold til.


Gripen90
 
Senior Skribent
Tilføjet:
15-07-2008 19:36:36
Svar/Indlæg:
15982/637
Der står at GTX280'et skulle retur til producenten så derfor kunne det ikke nå at komme med i testen.
Læser folk kun test-delen eller hvad ?

Men en sammenligning med HD4850 ville have været interessant.


freethinker
 
Overclocker
Tilføjet:
15-07-2008 19:59:00
Svar/Indlæg:
91/7
Dette kort kan købes for 1580,- hos Getmore 😲

BTW hvorfor SKAL det kort bare se så bøsset ud?!
Jeg mener lyserødt?? Helt ærligt.. Og så har jeg også svært ved at se, hvorfor alle grafikkort skal have japanske tøser på dem..


saiot
 
Elitebruger
Tilføjet:
15-07-2008 20:16:16
Svar/Indlæg:
7111/480
12# er Getmore til at stole på er de blivet bedre 😕


Gripen90
 
Senior Skribent
Tilføjet:
15-07-2008 21:13:14
Svar/Indlæg:
15982/637
#13: Meget !... de har virkelig vendt sig 180*.


#15
teko
 
Elitebruger
Tilføjet:
15-07-2008 21:31:21
Svar/Indlæg:
873/19
Er det mig der har overset noget, eller står der ikke noget om temp's? For ud fra andre test's, blir de kort ret varme?


Tenkin
 
Elitebruger
Tilføjet:
15-07-2008 22:44:41
Svar/Indlæg:
3332/33
#15 mit bliver ca. 78 grader når jeg spiller. det kommer aldrig rigtig over. men synes sku det er lige varmt nok, så leger lige med tanken om ny køler.

EDIT: Det skal lige siges jeg har sat og spillet hele dagen og har fået kortet op på 86 grader.


Gilbert
 
Elitebruger
Tilføjet:
16-07-2008 07:39:10
Svar/Indlæg:
4089/252
Jeg synes kortet skuffer. Der er jo ikke meget forskel på et aldrende 8800GT og et 4870. Da 8800GTX ofte er hurtigere end 8800GT, må det det også være hurtigere end 4870. Hvor gammelt er det lige 8000GTX er? Synes folk blir alt for begejstrede for sølle 500 point i 3dmarks eller 90vs85FPS gennemsnitligt i spil.


Gripen90
 
Senior Skribent
Tilføjet:
16-07-2008 08:39:42
Svar/Indlæg:
15982/637
#17: Kig lige her engang og måske vil du revurdere http://www.computerbase.de/art... _3dmark_vantage
der er en temmelig god forskel ! også 8800GT og HD4850 imellem.


JacobHL
 
Elitebruger
Tilføjet:
16-07-2008 09:28:15
Svar/Indlæg:
1776/116
Jeg er godt klar over at CPUen er ved at være lidt smågammel. For fremtiden vil jeg teste både i overclocket tilstand(jeg forestiller mig 366x9 såfremt min CPU tillader dette), men samtidig vil jeg også teste i nuværende konfiguration sådan at der også er noget sammenligningsmateriale.
Kortet blev temmelig varmt ja, det stod til omkring 85 grader i driveren idle vistnok, men jeg må indrømme at det ikke var noget jeg lagde mærke til. I bund og grund er det jo også ligegyldigt så længe den er stabil.

#17 - Jeg synes absolut ikke at det er skuffende. Hvis man kigger ud over 3DMark giver det en del mere forskel end 90vs85FPS - især i de højere opløsninger hvor kortet virkelig brillierer. Faktisk er forskellen også en del større selv i mine test hvor CPUen gør differencen mellem kortene endnu mindre.

Jeg gør også opmærksom på at man *ikke* skal bladre direkte i billederne, da vores billedesystem vist har en fejl der gør at billeder med det samme navn bliver uploadet til samme artikelbillede-database. Dvs. hvis jeg har kaldt et billede "y1.jpg" i to forskellige tests, vil man kunne se begge billeder når man bladrer. Den vil jeg lige tage op med programmørerne.

Ellers mange tak for respons på testen folkens 🙂


Gilbert
 
Elitebruger
Tilføjet:
16-07-2008 12:58:12
Svar/Indlæg:
4089/252
#19
Der er da forskel, og det burde der også være, der den en chip er fra 2008 mens den anden er... hvad 2-3 år gammel? Det kan godt vlre jeg lige gjorde forskellene mindre end de er, men jeg ser ingen tal der på nogen måde gør det til et godt køb.


Hånden på hjertet... hvor mange ejere af et 8800GTX/Ultra eller nyere 8000GTS, har haft problemer med at køre spil?


Miccim
 
Elitebruger
Tilføjet:
16-07-2008 13:58:47
Svar/Indlæg:
3233/128
#20 du glemmer at kortet er cpu begrænset.....


Clintin
 
Superbruger
Tilføjet:
16-07-2008 17:45:15
Svar/Indlæg:
1317/46
#20, enig ejere af 8800gts eller hurtigere, som investerer i nye kort har for mange penge, men har du noget der væsentligt langsommere end et 8800gts kort, så kan jeg forstå det, i mit system, ville et sådant kort gøre en kæmpe forskel.


Gripen90
 
Senior Skribent
Tilføjet:
16-07-2008 22:08:20
Svar/Indlæg:
15982/637
#20: Du griber det forkert an. Det er da heller ikke forventeligt at ejere af GF8800GT og GF88000GTX kort skal købe de nyere kort bare lige sådan (medmindre man har brug for det), men det er et særdeles godt køb for folk der vil opgradere fra 7900GT, 8600GT etc kort.
Yderligere så skal du også lige se på forskellene i høj opløsning og med FSAA/AF aktiveret, så er det lige meget hvad CPU du sidder med, for her tæller rå GPU kraft.


hamderD
 
Elitebruger
Tilføjet:
17-07-2008 00:08:57
Svar/Indlæg:
7263/260
God test. 🙂


Burgurne
 
Elitebruger
Tilføjet:
17-07-2008 00:43:41
Svar/Indlæg:
5874/1287
#20 ... hmmm jeg sidder med et 8800GTS 320 MB, hvor jeg mangler saft og kraft hvis jeg slår ret meget mere end 2x FSAA til i f.eks NFS prostreet eller i de fleste nyere FPS spil. Min monitor gør, at jeg altid kører i 1680x1050 (undtagen i gamle spil, hvor denne opløsning ikke er valgbar), og selvom det er et 8800GTS, så tror jeg nu nok jeg vil kunne mærke forskel, også selvom jeg kører XP, og dermed ikke er stået på dx10 ræset (hvorfor et ræs? Hvilke spil kan noget med dx10 som de ikke kan med dx9, måske bortset fra Crysis?)


Gilbert
 
Elitebruger
Tilføjet:
17-07-2008 07:29:31
Svar/Indlæg:
4089/252
#25 jeg skrev 8800GTX/Ultra eller nyere 8000GTS. Det du har der er det gamle GTS. Du kan roligt opgradere :).

#23 Jeg griber det rigtigt an, da mange tror de er nød til at skifte gfx hver gang for at følge med. Der sidder sikkert mange med 38XX, 8800 og måske endda 9800 baserede kort, som mner de har brugt for at skifte.


Gripen90
 
Senior Skribent
Tilføjet:
18-07-2008 11:56:12
Svar/Indlæg:
15982/637
#26: Stadig ikke det samme. Jamen det er jo ikke kortenes eller udviklingens fejl ! det er forbrugerens. Det er derfor der er anmeldelser og tests, så man kan se hvad man får ud af at skifte istedet for bare at købe blindt.. det er ren og skær uvidenhed !.


Gripen90
 
Senior Skribent
Tilføjet:
20-07-2008 01:58:02
Svar/Indlæg:
15982/637
Nåh. Min far vil købe mit HD4850 da deres gamle PC er gået død og de har fået ny men dog med svagt GFX (GF8600GT). Så nu har jeg også bestilt sådan et Gigabyte HD4870.. nu håber jeg bare min Corsair VX450 kan trække det og at der er plads til det på bundkortet og i HTPC'en.


Gilbert
 
Elitebruger
Tilføjet:
20-07-2008 09:09:11
Svar/Indlæg:
4089/252
#27 Netop... uvidenhed, og en ide om at man har brug for noget.


saiot
 
Elitebruger
Tilføjet:
24-07-2008 19:28:55
Svar/Indlæg:
7111/480
29¤ jeg har et 8800GT og har lige bestilt e HD4870 og jeg føler mig ikke spicel udbinden jeg kan se på de test hvad jeg får og det jeg får er det kort jeg kan klare mig med i det næste ½år eller emre har problemer med crrysis og der kommer en del nye titler i efteråret som nok også er temlig kravene så syns bestem det er et godt skifte vær for mig iverfal 😉


#31
BUG
 
Superbruger
Tilføjet:
31-07-2008 01:42:08
Svar/Indlæg:
734/69
DEN HELT STORE NYHED PÅ DETTE NY ATI KORT ER..

HD audio understøttelse [DTS-HD & Dolby True-HD]

[Integrated HD audio controller with support for multi-channel (up to 7.1) audio formats, including AC-3, AAC, DTS, DTS-HD & Dolby True- HD]

http://www.powercolor.com/glob...
http://www.komplett.dk/k/ki.as...

hatten af for ATI her fra



cheers


Burgurne
 
Elitebruger
Tilføjet:
31-07-2008 15:34:50
Svar/Indlæg:
5874/1287
Jeg kan egenligt ikke se den store fordel i det, da billedet skal til TV, og lyden til surround-anlægget, så lyd og billede skal alligevel have hver deres kabel. Hvem har 5.1 eller 7.1 lyd i deres TV???


#33
BUG
 
Superbruger
Tilføjet:
31-07-2008 23:01:42
Svar/Indlæg:
734/69
#32

man smider alt i reciveren via HDMI - PS3, Blu-Ray, PC, ect. og så et "fælles" HDMI kabel fra reciver til TV (video pass-through)

5.1 + 7.1 har ikke noget med HD audio formaterne - DTS-HD & Dolby True HD & PCM at gøre

cheers


Burgurne
 
Elitebruger
Tilføjet:
01-08-2008 04:19:09
Svar/Indlæg:
5874/1287
#33 ja, det gør man så ikke i min reciever, den vil have det som optisk eller coaxial digital uanset om det er DD eller dts.


#35
BUG
 
Superbruger
Tilføjet:
01-08-2008 22:55:54
Svar/Indlæg:
734/69
#34 du skal bruge en Reciver med hdmi video pass-through

fx. Onkyo TX-SR605

DD og DTS er old school, men ja de kan nøjes med optisk/coaxial

BTW. HD3870 havede jo kun DD og ikke DTS

cheers


Burgurne
 
Elitebruger
Tilføjet:
01-08-2008 23:38:18
Svar/Indlæg:
5874/1287
#35, Det er min Denon så for gammel til, men den bliver ikke udskiftet bare for at få lyden med i HDMI-stikket! Optisk lyd klarer sig nu ganske glimrende 🙂


#37
BUG
 
Superbruger
Tilføjet:
01-08-2008 23:58:13
Svar/Indlæg:
734/69