Test: Leadtek WinFast PX8800 GTX TDH

Grafikkort, NVIDIA  d.  04. december. 2006, skrevet af red_martians 18 Kommentarer.  Vist: 13748 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: pc-netto.dk
DK distributør: Sympia A/S

Innovation/teknologi



Geforce8800GTX er det nyeste og voldsomste grafikkort. Den chip som geforce8800-serien har kaldes G80, og har 681mio transistorer. For folk der ikke kender til det, svarer det til antallet i 3 dualcore AthlonX2 cpu'er. Denne chip er altså en gigant uden lige. DirectX10 kommer med den nyeste form for grafikbehandling kaldet shadermodel4.0. Den vil udvide computergrafikkens grænser, så fotorealisme for alvor kommer inden for rækkevidde. Vi kan roligt sige velkommen til Jurassic-park realtime.



Geforce8800GTX har derudover 768MB ram. Et skævt tal, der i virkeligheden dækker over at nVidia har koblet yderligere ram kanaler til chippen så den snakker med 12chip på 12kanaler. Det giver mere båndbredde end man tidligere har set, og mere ram end nogensinde før på et single grafikkort til spilbrug. De mange ram, vil gøre det muligt at spille i ufatteligt høje opløsninger med lige så ufatteligt mange detaljer. Noget vi helt sikkert glæder os til, men det kræver tre ting. Windows Vista, DirectX10 og et spil der bruger directX10. Ingen af delene eksisterer endnu, så vi må indtil videre nøjes med vores 32bit windowsXP, directX9 og directX9/opgenGL-spil.



Det nye og spændende kommer til udtryk herover. Unified Shader gør at flere slags beregninger kan varetages af den samme del i chippen. Det gør absolut ikke chippen mindre, men til gengæld langt mere effektiv, da den altid vil være fuldt optaget. Unified shader kan kun bruges til effekter, og gamle ord som pipelines, ROPs osv. eksisterer stadig i bedste velgående.

Geforce8800GTX bruger fra 32 til 64pixelpipelines. Det kommer an på hvordan den bliver presset. Jo hårdere jo flere. Derudover kan den beregne fuldstædig sindsyge 192Z-pixels per clock og har 24ROPs. Ord der er svære at forstå, men den har væsentlig flere end nogen anden grafikchip i dag, hvilket giver bedre ydelse.



Derudover har nVidia indført en slags Hyperthreading kaldet GigaThread, som vi kender fra de gamle Intel Pentium 4 cpu'er. Grafikkortet kan arbejde mere flere tråde ad gangen, og bliver demed endnu mere effektiv.



G80-chippens rå ydelse testes herover. Det kaldes Fillrate, og beskriver hvor mange pixels den kan lave i sekundet. Da G80 kan lave op til 64pixelberegninger ad gangen (kaldet 64 pipelines) er det en chip med meget overskud. Dog kan den maximalt lave 24pixels ad gangen(kaldet ROPs). Det lyder som spildte kræfter, men mange effekter bruger flere pipelines ad gangen, og derfor vil det være spild af transistorer at sætte flere ROPs på. Da effekterne er flyttet over på den nye Unified Shader, er pipelinens vigtigste opgave at filtrerere overflader og lave skarpere billeder, og det gøres op til 2.5x hurtigere end tidligere modeller pga. det store overskud. Derfor vil det værre sværere at mærke forskel på om man bruger filtrering eller ej. Vi tester kun kortets evne til at lave overflader, og så har det "kun" 32 pipelines.



I shader-testen, der tester effekter, havde vi klart forventet noget bedre ydelse. Især når vi tager i betragtning af, at det ikke er et virkeligt scenarie. I den virkelig verden ville Vertexshaderen og den kommende Geometrishader også have plads, hvilket vil betyde lavere ydelse under alle omstædigheder. Men der kan være rigtig mange grunde til den dårlige ydelse. Programmet er ved at være halvgammelt, og 8800GTX fungerer muligvis bedre med nyere effekter baseret på shadermodel 3.0 og DirectX10's kommende shadermodel 4. På den anden side er det måske virkelighed, da Geforce7950GX2 samlet set har 96shader-processorer, der faktisk ligger ret tæt på 8800GTX's 128 Unified Shaders.




Yderlige egenskaber




  • PureVideo HD er nVidia's ord for video-dekodning. Geforce8-serien har selvfølgelig Pure-video-egenskaber,der nu er blev udvidet med en HD-betegnelse . PureVideo beskriver bl.a. muligheden for HD-dekodning der med det nye Digitale TV, HD-DVD'er og BluRay-Diske'er er muligt. Med Geforce8800 er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. Pure-video HD udvider derudover med forbedret støjreduktion(HD noise reduction) og skarpere kanter (HD edge enhancement)
    http://www.nvidia.com/page/purevideo_support.html

  • SLi De største nyere nVidia grafikkort understøtter SLi. Kort fortalt betyder det, at hvis man har et bundkort der er SLi-mærket kan man bruge to ens nVidia-grafikkort, og udnytte deres samlede kræfter på en skærm. Vi snakker om Geforce7100GS og større. Geforce 8800GTX har to SLi-stik. Det er stadig en gåde for os om det er for at hæve ydelsen mellem 2 grafikkort, eller mulighedden for at tilføje et 3. grafikkort.


  • FSAA står for Full Scene Anti Aliasing, og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. Geforce8-serien har derudover flere typer. Den nyeste er CVAA, der udvider den gamle form til 8 og 16x uden at gå på kompromi med billedekvaliteten, og stadig med fornuftig ydelse.


  • Texture-Filtrering Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør at overgangene mellem de dele med færre detaljer op til dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotrofisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. nVidia skulle til at bruge en ny løsning der giver meget høj kvalitet.
    Vi har denne gang brugt nVidia's nyeste driver 97.02. Her virker den nye form for Ani, og vi skal også senere se at der faktisk ikke er forskel på ydelsen. Samtidig lagde vi mærke til at gamma-korrigeret FSAA var aktiveret fra standard i denne driver, hvilket vi hverken så i 96.89 eller 96.96. Så lækkert at se at driveren nu virker som den skal på dette område

  • Quantum Effects En ny egenskab der kan lave Fysik-effekter sideløbbende med grafikken, takket være den unified shader. Det gør at man reelt ikke behøver et Fysik-kort længere, men det vil også betyde at Fysik'en vil kunne sænke ydelsen på grafikkortet. Men klart et spændende tiltag.







    Strømforbrug


    Geforce8800GTX strømforbrug var i den højere ende. Især i 2D-miljø brugte kortet ufattelig meget strøm. Mere end 50watt over de mindst strømslugende grafikkort vi har haft. Det er så absolut en del, og for meget, når vi ved at nVidia med bl.a. 7900-serien kunne sænke forbruget til 40-50watt under 8800GTX. I 3D blev vi dog lidt forbavsede. Vi havde virkelig forventet at strømforbruget ville blive skyhøjt, især pga. at kortet har 2strøm stik og at kortet har en virkelig stor grafikchip og hele 12 meget hurtige ram-klodser. På grafen ser det voldsomt ud, men vi havde i virkeligheden forventet vi noget der var værre.





    Kortet er på mange måder et skridt frem for nvidia. Unified shader ser ud til at have visse fordele, og chippens kapacitet, sammen med udvidelsen af rammene til 384bit giver det et kæmpe boost. Ud fra teknologien og vores pixeltest, ser det ud til at dette kort er specialiseret i de tungeste effekter. Men man bliver nød til det, for at spare på chippens størrelse, og da man alligvel ikke kan hente rå ydelse, kan man lave flottere effekter ved samme ydelse. Kortet er parat til DirectX10, som vil gøre spillene langt mere realistiske end tidligere set. Dog er det en strømsluger, så samlet set giver vi det 4point her.
  • Woodgnome
     
    Elitebruger
    Tilføjet:
    04-12-2006 12:03:25
    Svar/Indlæg:
    1888/560
    De mindste skruer holder chippen på plads? Er det kun mig der synes det lyder lidt forkert ?

    Man kan da forhåbentlig ikke afmontere hele kernen ved at skrue et par skruer ud ?:(



    Illuminati
     
    Elitebruger
    Tilføjet:
    04-12-2006 12:10:41
    Svar/Indlæg:
    10398/435
    jo, vidste du ikke det? kan du ikke huske den gang man talte om at gpu skulle være ligesom cpu'er, altså kunne skiftes. den tid er nu.



    Gripen90
     
    Senior Skribent
    Tilføjet:
    04-12-2006 12:21:20
    Svar/Indlæg:
    15982/637
    #2: Det startede nu med 3Dfx Rampage (Spectre) :00
    http://www.thedodgegarage.com/...



    Illuminati
     
    Elitebruger
    Tilføjet:
    04-12-2006 12:34:29
    Svar/Indlæg:
    10398/435
    #3, lol cool.. det var nu bare for at drille #1.. men specter1k blev aldrig lanceret?



    Gripen90
     
    Senior Skribent
    Tilføjet:
    04-12-2006 12:39:50
    Svar/Indlæg:
    15982/637
    #4: Nej desværre :(



    Jesper
     
    Elitebruger
    Tilføjet:
    04-12-2006 16:49:52
    Svar/Indlæg:
    2072/117
    Kunne være så fedt hvis de lavede det fremover!!!

    Tror dog ikke økonomisk at ATI og Nvidia går med på det, da de sikkert kan tjene flere penge på at sælge flere kort...

    Men det kommer nok anpå prissætningen :)



    elkoger
     
    Overclocker
    Tilføjet:
    04-12-2006 17:23:56
    Svar/Indlæg:
    4/5
    Undre mig lidt der ikke blíver kommenteret lidt på ASUS kortet´s ydelse i NFS carbon, ved godt at testen handler om leadtek kortet, men sådan en stor afvigelse kunne man da godt lige nævne..... Nogle der evt kan fortælle mig hvorfor ydelsen i dette spil ligger så langt fra de andre resulatet, så ASUS kortet ellers følger super godt med.



    OEA
     
    Superbruger
    Tilføjet:
    04-12-2006 17:35:35
    Svar/Indlæg:
    1711/30
    #7 Det har vel noget med driveren at gøre , da HWT blev nød til at skifte driver osv og kortet LIGE kommet ud :i. Nu har der lige været lidt pusterum til at smide en opdateret driver ud der udnytter kortene bedre :).

    Håber overstående kan bekræftes værende rigtigt.



    red_martians
     
    Moderator
    Tilføjet:
    04-12-2006 17:41:49
    Svar/Indlæg:
    7881/1165
    #7... Det er en driver-bug.. nævnte det vist i MSI-artikelen. Der er også flere andre små fejl med den driver vi benyttede til ASUS.. bl.a. var en bunke af egenskaber deaktiverede, som så er aktiveret i den nye driver... Underligt nok uden at ydelsen er faldet. :)



    Illuminati
     
    Elitebruger
    Tilføjet:
    04-12-2006 18:00:08
    Svar/Indlæg:
    10398/435
    elkoger, du kan regne med at boardene grundlæggende er 100% ens. Boardet bliver produceret 1 sted og chippen et andet sted. "Producenterne" putter et klistermærke på, brander biosen og laver bundle/pakke til. ;)



    #11
    OEA
     
    Superbruger
    Tilføjet:
    04-12-2006 18:21:55
    Svar/Indlæg:
    1711/30
    #8 Year , så var jeg ikke helt galt på den :f.



    elkoger
     
    Overclocker
    Tilføjet:
    04-12-2006 18:45:20
    Svar/Indlæg:
    4/5
    mange tak for jeres svar :D

    Jeg regner nemlig med at købe det omtalte asus kort så måtte lige høre :D



    #13
    OEA
     
    Superbruger
    Tilføjet:
    04-12-2006 22:11:22
    Svar/Indlæg:
    1711/30
    #12 Selvtak :)



    Rednalyn2
     
    Superbruger
    Tilføjet:
    05-12-2006 01:40:44
    Svar/Indlæg:
    558/73
    Forstår ikke hvorfor anmelderen lader det trække ned, at der ikke er HDMI udgang på grafikkortet...

    DET ER IKKE MULIGT!!!

    HDMI er den nye udgave af det velkendte SCART stik!

    HDMI's funktion er at overføre billede+lyd.
    HDMI består altså af DVI + lydsignal.
    HDMI's billedekvalitet er altså den samme som DVI's! (Det er jo det samme!!!)

    DA gfx ikke kan levere lyd, er det derfor ikke noget man vil have på et gfx!


    FORSTÅR I DET SÅ? 8)


    Så stop med at nævne det kritisk!

    Man har jo aldrig før brokket sig over manglende SCART udgang på fortidens gfx :)


    KOM IND I KAMPEN!



    #15
    foo
     
    Elitebruger
    Tilføjet:
    05-12-2006 07:27:22
    Svar/Indlæg:
    1685/240
    #14 - du skal da ikke komme og sige det ikke er muligt når det nu engang er det - så gider man da slet ikke tage resten af dit indlæg seriøst...

    Der er lavet flere X1600, X1900 samt GF7600 og GF7900 kort med HDMI, og der findes endda hele lister over dem...
    http://www.htpcnews.com/forums...

    Grunden til HDMI er så efterspurgt som det er, er pga. HDCP - det er mange gange nemmere med HDMI, når nu man har et TV med HDMI, så er det nemmere med et HDMI-HDMI kabel...

    Du nævner selv SCART, og det man gjorde i "fortiden" var jo netop at føre nogle kabler op til lydkortet, og et ned til en S-Video udgang på GFX, og så havde du pludselig lyd og billede på dit TV - man kunne fristes til at sige at der på en måde faktisk var SCART i de gamle GFX. Alt var en smule anderledes dengang, det var først og fremmest nogle helt heltandre signaler man ønskede overført, der var ingen beskyttelse i form af kryptering el. lign. på signalerne overhovedet...

    So... Long story short, man kan SAGTENS få HDMI på sit GFX, og grunden til det efterspørges i så høj grad er pga. HDCP, som er krævet for HD-TV, og Vista kræver det også (så vidt jeg husker) - så derfor er det oplagt at der skal være HDMI for nemhedens skyld på de nye GFX, da der SAGTENS kan lægges lyd ned på GFX, det gøres vha. et lile kabel fra lydkortet...

    Så for at citere dig selv

    Kom ind i kampen!



    red_martians
     
    Moderator
    Tilføjet:
    05-12-2006 17:22:03
    Svar/Indlæg:
    7881/1165
    Desuden siges der at ATi's kommende R600 (Radeon X2000-serie) får HDMI standard. Det er endda muligt at lægge lyd på grafikkortet, det er der også flere producenter der har. Enten med indbyget lydhip eller med en overførsel fra lydkort eller bundkort. :)



    #17
    k0ch
     
    Superbruger
    Tilføjet:
    07-12-2006 10:40:10
    Svar/Indlæg:
    160/10
    Ligesom et lydkort der er monteret på grafikkortet?
    tror jeg ikke helt forstår.



    #18
    foo
     
    Elitebruger
    Tilføjet:
    07-12-2006 11:28:15
    Svar/Indlæg:
    1685/240
    #17 - ja de kan sagtens vælge at ligge en lydchip på graffikkortet, hvis det er det de vil, men det mest almindelige er bare at sætte et stik på (enten ekstern eller internt på kortet) og så føre lyden ind den vej...