Test: XFX GeForce 8800 GTX XXX Version

Grafikkort, NVIDIA  d.  05. februar. 2007, skrevet af red_martians 3 Kommentarer.  Vist: 17549 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Rosenmeier
DK distributør: Rosenmeier

Innovation/teknologi



Geforce8800GTX er det nyeste og voldsomste grafikkort. Den chip som geforce8800-serien har kaldes G80, og har 681mio transistorer. For folk der ikke kender til det, svarer det til antallet i 3 dualcore AthlonX2 cpu'er. Denne chip er altså en gigant uden lige. DirectX10 kommer med den nyeste form for grafikbehandling kaldet shadermodel4.0. Den vil udvide computergrafikkens grænser, så fotorealisme for alvor kommer inden for rækkevidde. Vi kan roligt sige velkommen til Jurassic-park realtime.



Geforce8800GTX har derudover 768MB ram. Et skævt tal, der i virkeligheden dækker over at nVidia har koblet yderligere ram kanaler til chippen så den snakker med 12chip på 12kanaler. Det giver mere båndbredde end man tidligere har set, og mere ram end nogensinde før på et single grafikkort til spilbrug. De mange ram, vil gøre det muligt at spille i ufatteligt høje opløsninger med lige så ufatteligt mange detaljer. Noget vi helt sikkert glæder os til, men det kræver tre ting. Windows Vista, DirectX10 og et spil der bruger directX10. Ingen af delene eksisterer endnu, så vi må indtil videre nøjes med vores 32bit windowsXP, directX9 og directX9/opgenGL-spil.



Det nye og spændende kommer til udtryk herover. Unified Shader gør at flere slags beregninger kan varetages af den samme del i chippen. Det gør absolut ikke chippen mindre, men til gengæld langt mere effektiv, da den altid vil være fuldt optaget. Unified shader kan kun bruges til effekter, og gamle ord som pipelines, ROPs osv. eksisterer stadig i bedste velgående.

Geforce8800GTX bruger fra 32 til 64pixelpipelines. Det kommer an på hvordan den bliver presset. Jo hårdere jo flere. Derudover kan den beregne fuldstændig syge 192Z-pixels per clock og har 24ROPs. Ord der er svære at forstå, men den har væsentlig flere end nogen anden grafikchip i dag, hvilket giver bedre ydelse.



Derudover har nVidia indført en slags Hyperthreading kaldet GigaThread, som vi kender fra de gamle Intel Pentium 4 cpu'er. Grafikkortet kan arbejde med flere tråde ad gangen, og bliver der med endnu mere effektivt.



G80-chippens rå ydelse testes herover. Det kaldes Fillrate, og beskriver hvor mange pixels den kan lave i sekundet. Da G80 kan lave op til 64pixelberegninger ad gangen (kaldet 64 pipelines) er det en chip med meget overskud. Dog kan den maximalt lave 24pixels ad gangen(kaldet ROPs). Det lyder som spildte kræfter, men mange effekter bruger flere pipelines ad gangen, og derfor vil det være spild af transistorer at sætte flere ROPs på. Da effekterne er flyttet over på den nye Unified Shader, er pipelinens vigtigste opgave at filtrere overflader og lave skarpere billeder, og det gøres op til 2.5x hurtigere end tidligere modeller pga. det store overskud. Derfor vil det værre sværere at mærke forskel på om man bruger filtrering eller ej. Vi tester kun kortets evne til at lave overflader, og så har det "kun" 32 pipelines, hvilket er det dobbelte af RadeonX1950XTX.



Shader-testen er ret speciel med dette XFX-kort. Vi ser faktisk at ydelsen er den samme som et normalt GTX. Det tyder på at XFX's specialbios kun har overclocket pipelines og ikke shaders. og de kører altså 1350Mhz som standard-GTX'erne. Hvad det betyder ser vi på lidt senere, men allerede her kan i jo få nogle antagelser. Shaders er nemlig i mange tilfælde flaskehalsen i dag, derfor der kun er 16-24ROPs (færdige pixels per hz).Min antagelse er, at ydelsesforskellen i praksis kun vil ses pga. de hurtigere ram på 1Ghz, frem for de 630Mhz på pipelines. Ellers vil vi se hurtigere hastighed når FSAA og filtrering bliver aktiveret. Men ikke når vi øger detaljegraden.
Personligt synes jeg det er et pr-stunt at skrive 630Mhz på kassen, når de kun passer halvvejs. Det andet underlige er at GTS xxx også har fået overclocket sin shader i modsætning til dette GTX xxx.




Yderlige egenskaber




  • PureVideo HD er nVidia's ord for video-dekodning. Geforce8-serien har selvfølgelig Pure-video-egenskaber,der nu er blev udvidet med en HD-betegnelse . PureVideo beskriver bl.a. muligheden for HD-dekodning der med det nye Digitale TV, HD-DVD'er og BluRay-Diske'er er muligt. Med Geforce8800 er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. Pure-video HD udvider derudover med forbedret støjreduktion(HD noise reduction) og skarpere kanter (HD edge enhancement)
    http://www.nvidia.com/page/purevideo_support.html

  • SLi De største nyere nVidia grafikkort understøtter SLi. Kort fortalt betyder det, at hvis man har et bundkort der er SLi-mærket kan man bruge to ens nVidia-grafikkort, og udnytte deres samlede kræfter på en skærm. Vi snakker om Geforce7100GS og større. Geforce 8800GTX har to SLi-stik. Det er stadig en gåde for os om det er for at hæve ydelsen mellem 2 grafikkort, eller mulighedden for at tilføje et 3. grafikkort.


  • FSAA står for Full Scene Anti Aliasing, og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. Geforce8-serien har derudover flere typer. Den nyeste er CVAA, der udvider den gamle form til 8 og 16x uden at gå på kompromi med billedekvaliteten, og stadig med fornuftig ydelse.


  • Texture-Filtrering Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør at overgangene mellem de dele med færre detaljer op til dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotrofisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. nVidia skulle til at bruge en ny løsning der giver meget høj kvalitet.
    Vi har denne gang brugt nVidia's nyeste driver 97.44. Her virker den nye form for Ani, og vi skal også senere se at der faktisk ikke er forskel på ydelsen. Samtidig lagde vi mærke til at gamma-korrigeret FSAA var aktiveret fra standard i denne driver, hvilket vi hverken så i 96.89 eller 96.96. Så lækkert at se at driveren nu virker som den skal på dette område

  • Quantum Effects En ny egenskab der kan lave Fysik-effekter sideløbbende med grafikken, takket være den unified shader. Det gør at man reelt ikke behøver et Fysik-kort længere, men det vil også betyde at Fysik'en vil kunne sænke ydelsen på grafikkortet. Men klart et spændende tiltag.







    Strømforbrug


    Geforce8800GTX strømforbrug var i den højere ende. Især i 2D-miljø brugte kortet ufattelig meget strøm. Mere end 50watt over de mindst strømslugende grafikkort vi har haft. Det er så absolut en del, og for meget, når vi ved at nVidia med bl.a. 7900-serien kunne sænke forbruget til 40-50watt under 8800GTX. I 3D blev vi dog lidt forbavsede. Vi havde virkelig forventet at strømforbruget ville blive skyhøjt, især pga. at kortet har 2strøm stik og at kortet har en virkelig stor grafikchip og hele 12 meget hurtige ram-klodser. På grafen ser det voldsomt ud, men vi havde i virkeligheden forventet vi noget der var værre.
    GTX xxx er endda endnu mere voldsom og bliver det første grafikkort der runder 300watt på mit system.





    Pointgivning i Innovation & Teknologi
    Kortet er på mange måder et skridt frem for nvidia. Unified shader ser ud til at have visse fordele, og chippens kapacitet, sammen med udvidelsen af rammene til 384bit giver det et kæmpe boost. Ud fra teknologien og vores pixeltest, ser det ud til at dette kort er specialiseret i de tungeste effekter. Men man bliver nød til det, for at spare på chippens størrelse, og da man alligvel ikke kan hente rå ydelse, kan man lave flottere effekter ved samme ydelse. Kortet er parat til DirectX10, som vil gøre spillene langt mere realistiske end tidligere set. Dog er det en strømsluger, så samlet set giver vi det 4point her.
    Jeg vil ikke give minus til XFX's 630M-PR-stunt, da det reelt ikke har noget at gøre med chippens potentiale og egenskaber. Denne regning må betales under pris.
  • jakob3k
     
    Superbruger
    Tilføjet:
    07-02-2007 13:26:17
    Svar/Indlæg:
    440/3
    Fin anmeldelse. :)
    Dog studsede jeg lidt over følgende:
    "De mange ram, vil gøre det muligt at spille i ufatteligt høje opløsninger med lige så ufatteligt mange detaljer. Noget vi helt sikkert glæder os til, men det kræver tre ting. Windows Vista, DirectX10 og et spil der bruger directX10. Ingen af delene eksisterer endnu, så vi må indtil videre nøjes med vores 32bit windowsXP, directX9 og directX9/opgenGL-spil."
    Så vidt jeg ved, eksisterer Windows Vista og dermed DirectX10.
    Desuden ser det da også ud til, at der er Vista-drivere til 8800 GTX i omløb. ?:(
    Derudover kan man jo altid diskutere, om man kan tale om mange RAM, men det vil jeg lade ligge i dag. ;)



    red_martians
     
    Moderator
    Tilføjet:
    07-02-2007 17:26:45
    Svar/Indlæg:
    7881/1165
    Artiklen blev skrevet i midten af januar, da det ikke fantes endnu :)
    Vi har desuden ikke nogen Vista til at teste på endnu, så kommende test vil også blive på XP.

    Til sidst, ville vi alligevel ikke kunne tjekke directX10-ydelsen, da der ikke findes nogle spil eller test-programmer med directX10.
    Men takker for kritikken. Kan godt forstå du studsede over det. Men det er bare en artikkel der har ligget og ventet i en måned, og blev skrevet sammetidigt med bla. GTS-udgaven, MSI X1900-kortet og lige eftervi havde testet evga. :)



    jakob3k
     
    Superbruger
    Tilføjet:
    07-02-2007 19:58:02
    Svar/Indlæg:
    440/3
    Oki, tænkte nok, at artiklen var skrevet lidt før, end den var lagt op.
    Måske kunne det være en idé, at man tilføjede et "Skrevet d."-punkt i "Om artiklen"-feltet, bare så man undgik overflødige spørgsmål i lignende fremtidige tilfælde. ;)