Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: n/a
DK distributør: n/a
Produktet er venligst udlånt af: www.interdata.dk
Produktet distribueres i DK af: www.interdata.dk
Link til producentens website: www.GeCube.com


Fillrate


X1300 består af 4pixelpipelines uden undtagelser. dvs. at uanset om vi snakker pixelshader, Z-pixels osv. vil det altid kun kunne beregne 4 af gangen. Til at teste kortets Fillrate bruger jeg Fillrate-tester et program der tester pixel og texture-ydelsen på grafikkort. Ved at lægge flere textures oven på hinanden kan man simulere et tungt 3D-miljø og dermed se hvad kortet kan magte, ved at tælle det antal pixels det kan beregne.


Pixelydelsen med X1300 ser lidt sløv ud. Men det kan i høj grad skyldes, at det har svært ved at loade textures. De 64bit ram sætter muligvis en grænse for kortets ydelse, og 128bit-modellen ville muligvis have julpet en del her. Jeg tester fillraten i en ret høj opløsning af 1280x1024 da det er her de fleste bruger skærme i dag. Alle 17" og 19" TFT-skærme har en opløsning på 1280x1024 og de fleste med gamle 19"CRT bruger netop denne opløsning til spillebrug.





Shaderydelse


Til at testshderydelsen bruger jeg programmet Fillrate-tester og 3Dmark03 og 06. Fillrate-tester tester pixelshaderne underforskellige forhold og kan fortælle om vi har en stærk eller svag shader indbygget i chippen. 3Dmark tester kun shaderne i nogle enkelte omgivelser, og kan ikke direkte fortælle hvor avancerede shaderen er, til gengæld er den nyere og giver måske et mere korrekt billede af shaderydelsen i et moderne spil.



I Fillrate-tester ser vi at i nogle tilfælde er kortet faktisk lige så hurtigt som det langt hurtigere X1600pro. Det skyldes at X1600pro stadig kun har 4pipelines, og er shaderen ikke avanceret nok kan den kun lave 4pixels. Til gengæld halter grafikkortet mange andre steder og ydelsen ligger generelt langt under både X1600pro og især 6600GT



I 3Dmarks shader-test ser vi at kortet faktisk ikke kan gennemføre shader-particle-testen. Jeg ved ikke hvorfor, men alle de testede radeon-kort kan ikke gennemfører testen, så det er åbenbart noget der er fælles for hele Radeon X1000-serien. Der hvor kortet klarer sig bedst er under vertexshader-testen. Det ser ud til at ATi har produceret en særdeles effektiv vertexshader og trods kortet kun har 2 og arbejder ved 450Mhz er den i en enkelt test bedre end 6600GT. De øvrige shader-tests klarer kortet ikke nær så godt.
DTU_XaVier
 
Elitebruger
Tilføjet:
16-02-2006 03:05:48
Svar/Indlæg:
2786/120
Vil da ikke sige ydelsen har stået stille.. Kan da huske at mit gamle 5600XT var nede på omkring 2000 points, og det slår det her da :00
Så siden Radeon 9000 osv. vil jeg ikke sige, men kortet er jo heller ikke "bygget til ydelse" :)
Rigtig fin tests, dog ikke helt "fair" modstandere :e

MVH.
Toke :)



JacobHL
 
Elitebruger
Tilføjet:
16-02-2006 20:20:54
Svar/Indlæg:
1776/116
Syntes lidt du fucker op på siden med strømforbrug, hvad er det helt præcis forskellen er på kWh og Watt, ud over at den ene er energi, og det andet er effekt :p.

Bortset fra det så hænger de unægteligt sammen, du kan ikke sige at det ser helt anderledes ud med watt forbruget, i forbindelse med kWh forbruget.

Syntes du skulle måle Watt forbruget ved først at måle hvor computeren brugte onboard VGA, og derefter brugte grafikkortet, og så trak de to ting fra hinanden. Så havde du selve grafikkortets strømforbrug.



Woodgnome
 
Elitebruger
Tilføjet:
17-02-2006 01:57:30
Svar/Indlæg:
1888/560
Watt er peak strøm og kWh er forbruget over hele testen.



red_martians
 
Moderator
Tilføjet:
17-02-2006 09:50:00
Svar/Indlæg:
7881/1165
Peak beskriver meget kort hvor meget strøm kortet bruger under stress. Peak fortæller dig hvilken strømforsyning du burde anskaffe. Idle fortæller hvad computeren bruger når den bare står stille. :)
At systemmet med et 7800GTX kan bruge helt op til 260w (hvilket er 10w mere end et X850XT) Men kortet bruger samlet set mindre strøm end X850XT. Grafikkortene kan sagtens pludseligt bruge langt flere watt end de bruger i gennemsnit, og derfor er en større strømforsyning mere nødvendig. Kwh beskriver altså mere et gennemsnit. Her kan systemmet med et RAdeonX1900XT i crossfire bruge fra 200w helt op til næsten 500w alt efter hvad de bliver udsat for. De siger altså intet om det reelt strømforbrug.




JacobHL
 
Elitebruger
Tilføjet:
17-02-2006 13:29:58
Svar/Indlæg:
1776/116
#4, selvfølgelig, men syntes stadigvæk det er ret underligt at dele det op i kWh og Watt når det egenlig bare er to sider af samme sag. Du kan jo sagtens beskrive gennemsnits forbruget ved Watt, samt peak. Jeg ser ingen grund til at blande kWh ind i det.



red_martians
 
Moderator
Tilføjet:
17-02-2006 19:53:52
Svar/Indlæg:
7881/1165
#5: Jeg skal overveje det :) Hvad med noget i retningen af et skema med: lowest/gns idle 10min./gns game 10min/peak ?? :)



JacobHL
 
Elitebruger
Tilføjet:
18-02-2006 00:31:02
Svar/Indlæg:
1776/116
Sounds great.. Bare husk at kør nogle tests med onboard VGA først, så du kan se hvad selve kortet trækker.



red_martians
 
Moderator
Tilføjet:
18-02-2006 11:17:01
Svar/Indlæg:
7881/1165
#7: den vil faktisk ikke være så godt, for selv et integreret-grafikkort trækker strøm og især et onboard, og jeg aner ikke hvor meget... Desuden har jeg ikke noget onboard/integreret grafikkort på det bundkort jeg tester med :) Det bedste er at vise hvad et grafikkort der trækker lidt strøm sammenlignet med et der trækker meget. Og et integreret grafikkort trækker næsten med garanti ligeså meget som de mindste til PCI-e da de næsten er ens. f.eks. Geforce 6100/6150 og Geforce6200TC og X200 og X300HM. I tilfældet med Geforce6100 og 6150 vil forskellen helt sikkert være til stede, da 6150 f.eks. har flere udgange, højere frekvensner og flere egenskaber. Den vil jeg ikke kun regne med. Det eneste jeg måske kunne gøre er at måle direkte på grafikkortet, hvilket ville være næsten umuligt jo mindre man er fag-tekniker.



Woodgnome
 
Elitebruger
Tilføjet:
18-02-2006 18:56:30
Svar/Indlæg:
1888/560
#7 jeg synes det er en helt fair opdeling, idet peak strømforbrug på sin vis ikke siger så meget om hvad kortet egentlig forbruger. Det sluger jo ikke maks. strøm konstant og for folk der rent faktisk tænker over strømforbruget kan peak forbruget bruges til absolut ingenting. Det er også gennemsnits strømforbruget, der siger mest om hvor meget varme kortet afsætter.

#8 hiv kortet ud og start en omgang folding via Remote Administrators kommandoprompt. Det skal nok kunne vise hvad systemet trækker på toppen uden GFX. Bare huske at sætte BIOS til at ignorere alle fejl i boot. Let.dk 8)




red_martians
 
Moderator
Tilføjet:
18-02-2006 23:41:13
Svar/Indlæg:
7881/1165
#8: n¨å du komemr til djævleøen næste gang kommer du lige forbi og viser mig hvordan..... Der er jeg stået af uden fysisk hjælp :)



Emillos
 
Overclocker
Tilføjet:
19-02-2006 11:39:11
Svar/Indlæg:
14079/622
Det er da et fint lille grafikkort :P..

Men prisen skal også være ret lav, før det er interessant. Kun 64-bit ram...puha ;)
Men det havde sikkert været spas at lege med noget v-modding på kortet :)