Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: n/a
DK distributør: n/a
Produktet er venligst udlånt af: www.interdata.dk
Produktet distribueres i DK af: www.interdata.dk
Link til producentens website: www.GeCube.com


FSAA


ATi har flere spændende former for FSAA især med CrossFire. Det ATi grundlæggende bygger deres FSAA på er det der hedder Sparse-grid Multisample. For at gøre det simpelt, er det en af de flotteste former for FSAA, og både nVidia og ATi bruger den form for antialiasing for kortet FSAA (Full Scene AntiAliasing).

Derudover har ATi følgende udvidelser derpå:
AAA
HDR+FSAA
TAA
S-FSAA (CrossFire-egenskab)

Nu står der CrossFire, og ja det er faktisk muligt. To X1300-kort på et CrossFire-ready bundkort og man vil få en pæn slat ekstra ydelse i de fleste spil. De tekniske egenskaberne for X1300 er altså på lige fod med high-end-kort som X1800 og X1900, bare meget langsommere.

AAA(Adaptiv AntiAliasing) er faktisk samme system som nVidia's TSAA og TMAA (Transperant Super/Multi-Sample AntiAliasing) Ideen er meget simpelt at fjerne en af de sidste rester af multisamples svagheder. Nemlig at de ikke kan antialiasere textures. Dette gør at transperente overflader som vinduer, hegn, gitter osv. ikke får sin portion af FSAA. Det laver AAA om på. AAA kan sættes til kvalitet og ydelse. Kvalitet giver klart det flotteste resultat, og den meget lille ydelsesnedgang gør at man under alle omstændigheder burde bruge det.



HDR+FSAA er ATi ifølge dem selv de eneste der kan præstere på nuværende tidspunkt. HDR er en shader 3.0-effekt, der giver langt mere realistiske lysindfald og mere ægte skygger. HDR er tungt, men med et kort som X1900XTX burde det ikke være andet end lakridser.

TAA (Temporal AntiAliasing) er faktisk ganske smart, men kræver at spillet har en høj framerate. Altså et kraftigt grafikkort er anbefalet. Idéen er kort at FSAA skifter metode ved hvert andet billede. Første billede bruger metode 1, andet billede metode 2, tredje billede metode 1 igen. osv. Dvs. at hvis billedet kører med 60fps (som er min.) vil FSAA kun arbejde med 2 gange 30fps. Og går det for langsomt, vil kanterne begyndte at blinke hvilket er ret irriterende for øjnene.



S-FSAA (Super Full Scene AntiAliasing) er også kort beskrevet under CrossFire. Teknikken handler kort om at hver grafikkort laver hver sin pixel med FSAA og blænder dem sammen, altså meget hen af TAA, men istedet for hvert andet, bliver de her blændet sammen. Resultatet er rigtig flot, men igen, ATi er ikke de eneste, da nVidia også har dette til deres grafikkort. Men idéen er især smart til spil der er CPU-begrænsede, og man derfor stadig kan udnytte sit CrossFire-setup. Men det kræver CrossFire i modsætning til det andet.





Filtrering


Anistrofisk Filtrering er næsten uundværligt idag. Har man prøvet det, går man aldrig væk fra det igen. ATi går faktisk et skridt tilbage med X1000-serien da de nu tilbyder den gamle form for anisotrofisk filertrering. Men det er ikke ensbetydende med at det er skidt. Den gamle er langt mere effektiv, og med vores moderne og hurtige grafikkort er der nok ikke så meget ydelse at miste som tidligere.



ATi kalder det "kvalitet og ydelse" (Quality and Performance). Ydelse er den metode man tidligere brugte, den er hurtig og filtrerer de mest synlige steder ligeså effektivt som kvalitets-metoden, og kvalitet er den helt gamle men flottere metode, der filtrerer hele billedet lige effektivt. Det er nu muligt selv at vælge mellem dem







AVIVO


ATI har med X1000-serien forsøgt at gøre VIVO (Video-In, Video-Out) til et afgørende salgsparameter og det forstår man så udmærket, når man tænker på ATI's overlegenhed på dette område. NVIDIA er med deres PureVideo kommet godt efter det, men historisk set har ATI altid været foran her.

AVIVO kommer uden tvivl på markedet nu, for at lægge sig op af Intel's Viiv-standard, der bliver en slags Centrino-standard til Media Center PC'er. Men hvad er det så at AVIVO kan?

AVIVO er først og fremmest en forbedring i forhold til Video-grabbing. Meget af teknologien kommer fra ATI's Rage Theater 550 chip og det er heller ikke et dumt sted at starte. AVIVO byder på eksempelvis 12-bit analog-til-digital converter og en hardwarestyret de-noise funktion til at formindske kvalitetstabet ved grabbing af video.

Næste store trin er ved kodning og om-kodning af video. Kodning (eller encoding om man vil) vil ske udelukkende i hardware, men mere interessant er det at om-kodning (til eksempelvis et andet størrelsesformat end det oprindelige) nu kan ske med assistance fra VPU'en. Især for den kommende H.264 standard bliver dette vigtigt, fordi H.264 er meget tungt- - Til gengæld leverer det fantastisk billedkvalitet.

Hele X1000-serien understøtter dette, men udover H.264 er der også VPU-assisteret support for formater som WMP9, WMV9 PMC, MPEG 2, MPEG 4, VC-1 og DivX.

De-kodning af disse formater (undtagen WMV9 PMC og DivX) kan også ske assisteret af VPU'en i AVIVO. Især ved H.264 er dette en fordel på grund af det tunge fil-format - omkring en 50% reduktion af CPU-tid kan brugerne forvente, lover ATI.

Endelig giver AVIVO større båndbredde til DVI-udgangen, og således vil det ikke længere være nødvendigt at bruge to udgange for at styre eksempelvis Apple's 30" Cinema LCD-skærm - det kan enkelt DVI-udgang fra AVIVO nu klare. Så er det jo bare på med fire af disse skærme til Crossfire setup'et.

Ellers kan der læses mere om AVIVO her:
http://www.ati.com/technology/Avivo/
DTU_XaVier
 
Elitebruger
Tilføjet:
16-02-2006 03:05:48
Svar/Indlæg:
2786/120
Vil da ikke sige ydelsen har stået stille.. Kan da huske at mit gamle 5600XT var nede på omkring 2000 points, og det slår det her da :00
Så siden Radeon 9000 osv. vil jeg ikke sige, men kortet er jo heller ikke "bygget til ydelse" :)
Rigtig fin tests, dog ikke helt "fair" modstandere :e

MVH.
Toke :)



JacobHL
 
Elitebruger
Tilføjet:
16-02-2006 20:20:54
Svar/Indlæg:
1776/116
Syntes lidt du fucker op på siden med strømforbrug, hvad er det helt præcis forskellen er på kWh og Watt, ud over at den ene er energi, og det andet er effekt :p.

Bortset fra det så hænger de unægteligt sammen, du kan ikke sige at det ser helt anderledes ud med watt forbruget, i forbindelse med kWh forbruget.

Syntes du skulle måle Watt forbruget ved først at måle hvor computeren brugte onboard VGA, og derefter brugte grafikkortet, og så trak de to ting fra hinanden. Så havde du selve grafikkortets strømforbrug.



Woodgnome
 
Elitebruger
Tilføjet:
17-02-2006 01:57:30
Svar/Indlæg:
1888/560
Watt er peak strøm og kWh er forbruget over hele testen.



red_martians
 
Moderator
Tilføjet:
17-02-2006 09:50:00
Svar/Indlæg:
7881/1165
Peak beskriver meget kort hvor meget strøm kortet bruger under stress. Peak fortæller dig hvilken strømforsyning du burde anskaffe. Idle fortæller hvad computeren bruger når den bare står stille. :)
At systemmet med et 7800GTX kan bruge helt op til 260w (hvilket er 10w mere end et X850XT) Men kortet bruger samlet set mindre strøm end X850XT. Grafikkortene kan sagtens pludseligt bruge langt flere watt end de bruger i gennemsnit, og derfor er en større strømforsyning mere nødvendig. Kwh beskriver altså mere et gennemsnit. Her kan systemmet med et RAdeonX1900XT i crossfire bruge fra 200w helt op til næsten 500w alt efter hvad de bliver udsat for. De siger altså intet om det reelt strømforbrug.




JacobHL
 
Elitebruger
Tilføjet:
17-02-2006 13:29:58
Svar/Indlæg:
1776/116
#4, selvfølgelig, men syntes stadigvæk det er ret underligt at dele det op i kWh og Watt når det egenlig bare er to sider af samme sag. Du kan jo sagtens beskrive gennemsnits forbruget ved Watt, samt peak. Jeg ser ingen grund til at blande kWh ind i det.



red_martians
 
Moderator
Tilføjet:
17-02-2006 19:53:52
Svar/Indlæg:
7881/1165
#5: Jeg skal overveje det :) Hvad med noget i retningen af et skema med: lowest/gns idle 10min./gns game 10min/peak ?? :)



JacobHL
 
Elitebruger
Tilføjet:
18-02-2006 00:31:02
Svar/Indlæg:
1776/116
Sounds great.. Bare husk at kør nogle tests med onboard VGA først, så du kan se hvad selve kortet trækker.



red_martians
 
Moderator
Tilføjet:
18-02-2006 11:17:01
Svar/Indlæg:
7881/1165
#7: den vil faktisk ikke være så godt, for selv et integreret-grafikkort trækker strøm og især et onboard, og jeg aner ikke hvor meget... Desuden har jeg ikke noget onboard/integreret grafikkort på det bundkort jeg tester med :) Det bedste er at vise hvad et grafikkort der trækker lidt strøm sammenlignet med et der trækker meget. Og et integreret grafikkort trækker næsten med garanti ligeså meget som de mindste til PCI-e da de næsten er ens. f.eks. Geforce 6100/6150 og Geforce6200TC og X200 og X300HM. I tilfældet med Geforce6100 og 6150 vil forskellen helt sikkert være til stede, da 6150 f.eks. har flere udgange, højere frekvensner og flere egenskaber. Den vil jeg ikke kun regne med. Det eneste jeg måske kunne gøre er at måle direkte på grafikkortet, hvilket ville være næsten umuligt jo mindre man er fag-tekniker.



Woodgnome
 
Elitebruger
Tilføjet:
18-02-2006 18:56:30
Svar/Indlæg:
1888/560
#7 jeg synes det er en helt fair opdeling, idet peak strømforbrug på sin vis ikke siger så meget om hvad kortet egentlig forbruger. Det sluger jo ikke maks. strøm konstant og for folk der rent faktisk tænker over strømforbruget kan peak forbruget bruges til absolut ingenting. Det er også gennemsnits strømforbruget, der siger mest om hvor meget varme kortet afsætter.

#8 hiv kortet ud og start en omgang folding via Remote Administrators kommandoprompt. Det skal nok kunne vise hvad systemet trækker på toppen uden GFX. Bare huske at sætte BIOS til at ignorere alle fejl i boot. Let.dk 8)




red_martians
 
Moderator
Tilføjet:
18-02-2006 23:41:13
Svar/Indlæg:
7881/1165
#8: n¨å du komemr til djævleøen næste gang kommer du lige forbi og viser mig hvordan..... Der er jeg stået af uden fysisk hjælp :)



Emillos
 
Overclocker
Tilføjet:
19-02-2006 11:39:11
Svar/Indlæg:
14079/622
Det er da et fint lille grafikkort :P..

Men prisen skal også være ret lav, før det er interessant. Kun 64-bit ram...puha ;)
Men det havde sikkert været spas at lege med noget v-modding på kortet :)