Innovation/teknologi
Geforce8800Ultra er det nyeste og voldsommeste der findes fra i dag. Den chip som geforce8800-serien har kaldes G80 og har 681mio transistorer. For folk der ikke kender til det, svare det til størrelsen af 3 dualcore AthlonX2’er. Denne chip er altså en gigant uden lige. DirectX10 kommer med den nyeste form for grafik kalder shadermodel4.0. Den vil udvide de grafikernes grænser, så fotorealismen i spil bliver noget som vi aldrig har set før.
Geforce8800Ultra har derudover 768MB ram. Et skævt tal, der i virkeligheden dækker over at nVidia har koblet yderligere ram-kanaler til chippen. Så den snakker med 12chip på 6kanaler. Det giver altså mere båndbredde end man tidligere har set, og mere ram end nogensinde før set på et single grafikkort til spilbrug. De mange ram, vil gøre det muligt at spille i ufattelig høje opløsninger med ufattelig mange detaljer… Noget vi helt sikkert glæder os til, men det kræver tre ting. Windows Vista, DirectX10 og et spil der bruger directX10. Ingen af delene eksisterer endnu, så vi holder fast ved vores 32bit windowsXP, directX9 og directX9/opgenGL-spil.
Det nyeste og spændende kommer til udtryk herover. Nemlig Unified Shader. Det står for at flere slags beregninger kan varetages af den samme del i chippen. Det gør absolut ikke chippen mindre, men til gengæld langt mere effektiv, da den altid vil være fuldt optaget. Unified shader kan kun bruges til effekter, og gamle ord som pipelines, ROPs osv. Eksistere stadig i bedste velgående.
Geforce8800Ultra har fra fra 32 til 64pixelpipelines. Det kommer an på hvordan den bliver presset. Jo hårdere jo flere. Derudover kan den beregne fuldstædig sindsyge 192Z-pixels per hz. Og har 24ROPs. Ord der er sværre at forstå, men den har væsentlig flere end nogen anden grafikchip i dag, hvilket giver bedre ydelse.
Derudover har nVidia indført en slags Hyperthreading kaldet GigaThread, som vi kender fra den gamle Pentium4-serie. Grafikkortet kan arbejde mere flere tråde ad gangen, og dermed blive endnu mere effektiv.
G80-chippens rå ydelse testes herover. Det kaldes Fillrate, og beskriver hvor mange pixels den kan lave i sekundet. Da G80 kan lave op til 64pixelberegninger ad gangen (kaldet 64 pipelines) er det en chip med meget overskud. Dog kan den maximalt lave 24pixels ad gangen(kaldet ROPs). Det lyder skørt, men mange effekter bruger flere pipelines ad gangen, og derfor vil det være spild af transistorer at sætte flere ROPs på. Da effekterne er flyttet over på den unified shader er pipelinesnes vigtigste opgave at filtrerere overflader og lave skarpere billeder, og det gøres op til 2.5x hurtigere end tidligere modeller pga. det store overskud. Derfor vil det værre sværre at mærke forskel på om man bruger filtrering eller ej. Vi tester kun kortets evne til at lave overflader, og så har det ”kun” 32 pipelines.
Som det ses er forskellen mellem GTX og Ultra ret lille, men begge er meget hurtigere end HD2900XT
I pixelshaderen får HD2900XT virkelig tæsk. Siden testen med HD2900 har jeg funderet over hvorfor. 8800-serien har jo "kun" 128 shaderes mod HD2900 320stk. nVidia forklarer selv at hvis nvidia brugte ATi's måde at tælle shaders ville de have 256stk. Samtidig med er nvidia's chip-opbygning mere effektiv og alsidig end ATi's. Tilgengæld vil ATi have en klar fordel hvis programmerne er skrevet målrettet til kortet. Sidst men ikke mindst skal man huske på at nvidia's shader arbejder langt over 1Ghz hvor ATi's arbejder med samme frekvens som resten af chippen. Så trods spinkle tal har nvidia en ret stor fordel indtil videre.
Yderlige egenskaber
- PureVideo HD er nVidia’s ord for video-dekodning. Geforce8-serien har selvfølgelig Pure-video-egenskaber,der nu er blev udvidet med en HD-betegnelse . PureVideo beskriver bl.a. muligheden for HD-dekodning der med det nye Digitale TV, HD-DVD’er og BluRay-Diske’er er muligt. Med Geforce8800 er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. Pure-video HD udvider derudover med forbedret støjreduktion(HD noise reduction) og skarpere kanter (HD edge enhancement) Standard understøtter nVdiia dog ikke HDMI og da slet ikke med lyd.
http://www.nvidia.com/page/purevideo_support.html
- SLi De største nyere nVidia grafikkort understøtter SLi. Kort fortalt betyder det, at hvis man har et bundkort der er SLi-mærket kan man bruge to ens nVidia-grafikkort, og udnytte deres samlede kræfter på en skærm. Vi snakker om Geforce7100GS og større. Geforce 8800GTX har to SLi-stik. Det er stadig en gåde for os om det er for at hæve ydelsen mellem 2 grafikkort, eller mulighedden for at tilføje 3grafikkort.
- FSAA står for Full Scene Anti Aliasing, og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. Geforce8-serien har derudover flere typer. Den nyeste er CVAA, der udvider den gamle form til 8 og 16x uden at gå på kompromi med billedekvaliteten, og stadig med fornuftig ydelse.
- Texture-Filtrering Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør at overgangene mellem de dele med færre detaljer op til dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotrofisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. nVidia skulle til at bruge en ny løsning der giver meget høj kvalitet.
- Quantum Effects En ny egenskab der kan lave Fysik-effekter sideløbbende med grafikken, takket være den unified shader. Det gør at man reelt ikke behøver et Fysik-kort længere, men det vil også betyde at Fysik’en vil kunne sænke ydelsen på grafikkortet. Men klart et spændende tiltag.
Strømforbrug
Geforce8800Ultras strømforbrug var i den højere ende. Især i 2D-miljø brugte kortet ufattelig meget strøm. Mere end 70watt over de mindst strømslugende grafikkort vi har haft. Det er så absolut en del, og for meget, når vi ved at nVidia med bl.a. 7900-serien kunne sænke forbruget til 50-70watt under 8800Ultra. I 3D blev vi dog lidt forbavsede. Ser vi på watt/ydelse har nvidia en endnu større fordel, da HD2900 retter sig mod 8800GTS og slet ikke mod 8800GTX og ultra. Men at det skulle bruge mindre strøm end 8800GTX, kan jeg ikke forstå, prøvede endda flere gange, og alle gange brugte det lidt mere end GTX.
Pointgivning i Teknologi og innovation
Teknologisk er nvidia på ydelse stadig førende, deres valg af opbygning er noget anderledes end ATi's, og på nuværende tidspunkt hurtigst, om det ændre sig må tiden vise. Ellers er kortet directX10, og på det område mindre anderledes fra ATi. De har reelt de samme egenskaber osv. Men der hvor jeg især ser en forskel er ATi har valgt at lægge lyd-chip på kortet for fuld understøttelse af HDMI. Strømforbruget er dog ikke helt så højt som ATi's, og især watt/ydelsen vil være langt højere for nvidia end ATi. Derfor får det 4 præis som ATi.