Test: XFX GeForce 8800 GTS XXX

Grafikkort, NVIDIA  d.  22. januar. 2007, skrevet af red_martians 13 Kommentarer.  Vist: 13423 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Rosenmeier
DK distributør: Rosenmeier

Innovation/teknologi



Geforce8800GTS er lille-søsteren til det virkelig roste Geforce8800GTX. Den chip som geforce8800-serien har kaldes G80, og har 681mio transistorer. For folk der ikke kender til det, svarer det til antallet i 3 dualcore AthlonX2 cpu'er. Denne chip er altså en gigant uden lige. DirectX10 kommer med den nyeste form for grafikbehandling kaldet shadermodel4.0. Den vil udvide computergrafikkens grænser, så fotorealisme for alvor kommer inden for rækkevidde. Vi kan roligt sige velkommen til Jurassic-park realtime.



Geforce8800GTS har derudover 640MB ram. Et skævt tal, der i virkeligheden dækker over at nVidia har koblet yderligere ram kanaler til chippen så den snakker med 10chip på 10kanaler. Det giver mere båndbredde end man tidligere har set, og mere ram end nogensinde før på et single grafikkort til spilbrug. De mange ram, vil gøre det muligt at spille i ufatteligt høje opløsninger med lige så ufatteligt mange detaljer. Noget vi helt sikkert glæder os til, men det kræver tre ting. Windows Vista, DirectX10 og et spil der bruger directX10. Ingen af delene eksisterer endnu, så vi må indtil videre nøjes med vores 32bit windowsXP, directX9 og directX9/opgenGL-spil. NVidia siger dog at XP-folk ikke skal føle sig snydt, da der er udvidelser til OpenGL der vil gøre det muligt at lave shader4.0-effekter i XP.



Det nye og spændende kommer til udtryk herover. Unified Shader gør at flere slags beregninger kan varetages af den samme del i chippen. Det gør absolut ikke chippen mindre, men til gengæld langt mere effektiv, da den altid vil være fuldt optaget. Unified shader kan kun bruges til effekter, og gamle ord som pipelines, ROPs osv. eksisterer stadig i bedste velgående. 8800GTS har dog fået en del deaktiveret som vi vil skrive om senere, men det har vi krydset af i den første model.

Indtil vi fik kortet mellem hænderne viste vi ikke helt hvor mange pipelines nvidia havde udstyret kortet med, men alt tyder på at det er 24. Nvidia har dog fortalt at kortet har 96shader-units og 20ROPs og ud fra disse tal vil jeg tro at kortet kan lave 160Z-pixels ad gangen. Kortet kan i nogle tilfælde have hele 48pixelpipelines. Disse kommer til udtryk når man vælger et filtrere billedet, der er med til at give skarpere detaljer. Idéen er at man ikke taber ret meget ydelse ved at slå denne tunge egenskab til.



Derudover har nVidia indført en slags Hyperthreading kaldet GigaThread, som vi kender fra de gamle Intel Pentium 4 cpu'er. Grafikkortet kan arbejde mere flere tråde ad gangen, og bliver dermed endnu mere effektiv.



G80-chippens rå ydelse testes herover. Det kaldes Fillrate, og beskriver hvor mange pixels den kan lave i sekundet. Da GTS-udgaven af G80-chippen kan lave op til 48pixelberegninger ad gangen (kaldet 48 pipelines) er det en chip med meget overskud. Dog kan den maximalt lave 20pixels ad gangen(kaldet ROPs). Det lyder som spildte kræfter, men mange effekter bruger flere pipelines ad gangen, og derfor vil det være spild af transistorer at sætte flere ROPs på. Da effekterne er flyttet over på den nye Unified Shader, er pipelinens vigtigste opgave at filtrerere overflader og lave skarpere billeder, og det gøres op til 2.5x hurtigere end tidligere modeller. Vi tester kun kortets evne til at lave overflader, og så har det "kun" 32 pipelines.



I shader-testen, der tester effekter, havde vi klart forventet noget bedre ydelse. Især når vi tager i betragtning af, at det ikke er et virkeligt scenarie. I den virkelig verden ville Vertexshaderen og den kommende Geometrishader også have plads, hvilket vil betyde lavere ydelse under alle omstædigheder. Men der kan være rigtig mange grunde til den dårlige ydelse. Programmet er ved at være halvgammelt, og 8800GTX fungerer muligvis bedre med nyere effekter baseret på shadermodel 3.0 og DirectX10's kommende shadermodel 4. På den anden side er det måske virkelighed, da Geforce7950GX2 samlet set har 96shader-processorer, der faktisk er det samme som GTS's 96 Unified Shaders. Derudover har GX2 sine egne vertexshadere osv. Men tjek lige testen med de tungeste effekter, her ligger 8800GTS pludselig lige med GX2, og det er disse effekter som fremtidens spil vil bruge. Men alt i alt ser det stadig ikke særlig godt ud for Geforce 8800GTS.
Bios'n på disse kort er special-fremstillede i følge XFX-selv. Måske derfor at ydelse i shader1.4 faktisk ikke stiger, som på et almindelige GTX og GTS.

[!REKLAME!]





Yderlige egenskaber




  • PureVideo HD er nVidia's ord for video-dekodning. Geforce8-serien har selvfølgelig Pure-video-egenskaber,der nu er blev udvidet med en HD-betegnelse . PureVideo beskriver bl.a. muligheden for HD-dekodning der med det nye Digitale TV, HD-DVD'er og BluRay-Diske'er er muligt. Med Geforce8800 er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. Pure-video HD udvider derudover med forbedret støjreduktion(HD noise reduction) og skarpere kanter (HD edge enhancement)
    http://www.nvidia.com/page/purevideo_support.html

  • SLi De største nyere nVidia grafikkort understøtter SLi. Kort fortalt betyder det, at hvis man har et bundkort der er SLi-mærket kan man bruge to ens nVidia-grafikkort, og udnytte deres samlede kræfter på en skærm. Vi snakker om Geforce7100GS og større.


  • FSAA står for Full Scene Anti Aliasing, og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. Geforce8-serien har derudover flere typer. Den nyeste er CVAA, der udvider den gamle form til 8 og 16x uden at gå på kompromi med billedekvaliteten, og stadig med fornuftig ydelse.


  • Texture-Filtrering Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør at overgangene mellem de dele med færre detaljer op til dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotrofisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. nVidia skulle til at bruge en ny løsning der giver meget høj kvalitet.
    Vi har denne gang brugt nVidia's nyeste driver 97.02. Her virker den nye form for Ani, og vi skal også senere se at der faktisk ikke er forskel på ydelsen. Samtidig lagde vi mærke til at gamma-korrigeret FSAA var aktiveret fra standard i denne driver, hvilket vi hverken så i 96.89 eller 96.96. Så lækkert at se at driveren nu virker som den skal på dette område

  • Quantum Effects En ny egenskab der kan lave Fysik-effekter sideløbbende med grafikken, takket være den unified shader. Det gør at man reelt ikke behøver et Fysik-kort længere, men det vil også betyde at Fysik'en vil kunne sænke ydelsen på grafikkortet. Men klart et spændende tiltag.







    Strømforbrug


    Det ses tydeligt her, at vi har et overclocket grafikkort. Det bruger næsten ligeså meget strøm, når det presses, som et Geforce8800GTX. Ret ærgerligt, men det er en af konsekvenserne ved overclocking. Så må vi jo bare håbe at den mindre køler der sidder på Geforce8800GTS kan holde til den øgede effekt.




    Pointgivning i Innovation & Teknologi
    Kortet er på mange måder et skridt frem for nvidia. Unified shader ser ud til at have visse fordele, og chippens kapacitet, sammen med udvidelsen af rammene til 320bit giver det et kæmpe boost. Ud fra teknologien og vores pixeltest, ser det ud til at dette kort er specialiseret i de tungeste effekter. Men man bliver nød til det, for at spare på chippens størrelse, og da man alligvel ikke kan hente rå ydelse, kan man lave flottere effekter ved samme ydelse. Kortet er parat til DirectX10, som vil gøre spillene langt mere realistiske end tidligere set. Dog er det en strømsluger, så samlet set giver vi det 4point her.
  • Psym
     
    Overclocker
    Tilføjet:
    23-01-2007 00:03:14
    Svar/Indlæg:
    663/58
    bruger et 24/7 setup oc på mit gts på 650/1951 uden problemer Så kan ikke rigtigt se grunden for at købe et pre oced kort.. de har jo taget alt det sjove væk.



    Gripen90
     
    Senior Skribent
    Tilføjet:
    23-01-2007 01:53:49
    Svar/Indlæg:
    15982/637
    fordelen kan være at folk der ikke ønsker at gå på kompromis med garanti ved oc har muligheden for at få et kort der er oc'et pr. standard- men jeg ville nok hellere købe et pre-ocet evga pga deres suveræne garanti ordning hvis jeg skulle købe et pre-ocet kort.



    Advanced
     
    Elitebruger
    Tilføjet:
    23-01-2007 07:29:35
    Svar/Indlæg:
    6899/119
    Jeg synes ikke prisen kan svare sig, når man kan få et GTX for hvad? 200kr mere?



    red_martians
     
    Moderator
    Tilføjet:
    23-01-2007 08:07:47
    Svar/Indlæg:
    7881/1165
    #3: Du skal huske at regne ind i det, at størrelsen faktisk gør at kortet passer ind i alle kabinetter. Ja måske er det det hurtigste grafikkort på markedet i standard-størrelse.
    Selvom det har 550Mhz kerne, har jeg med tiden fundet ud af, at det slet ikke beskriver ydelsen på G80. Mange overclocker nemlig slet ikke shader-delen, og selvom kortet er preOC'et 100Mhz på kernen, vil det kun give et par procent ekstra ydelse. Er shaderen overclocket, så skal du bare se hvordan ydelse ryger i vejret, og det er netop det XFX har gjort med denne GTS-xxx-udgave..
    Kan da afsløre vi også har et GTX-xxx inde, og der er historien faktisk en helt anden. ;)



    Advanced
     
    Elitebruger
    Tilføjet:
    23-01-2007 10:36:22
    Svar/Indlæg:
    6899/119
    #4

    Ja det er selvfølgelig rigtigt nok. GTX passer jo ikke just i barebones og andet småt :)

    Hvornår tror du den anden test kommer op så?



    Gripen90
     
    Senior Skribent
    Tilføjet:
    23-01-2007 13:15:04
    Svar/Indlæg:
    15982/637
    lidt OT men hvad skete der med testen af eVGA GeForce 7950GX2, som jeg mener Sko havde til test ?



    Psym
     
    Overclocker
    Tilføjet:
    23-01-2007 13:19:38
    Svar/Indlæg:
    663/58
    #red martians

    main core og shader clock går hånd i hånd når man ocer et GTS.



    Psym
     
    Overclocker
    Tilføjet:
    23-01-2007 13:24:30
    Svar/Indlæg:
    663/58
    hm kan ikke redigere mit svar O.o

    men her er et schreen:


    http://www.peecee.dk/index.php...





    red_martians
     
    Moderator
    Tilføjet:
    23-01-2007 18:53:59
    Svar/Indlæg:
    7881/1165
    #7: I now... Men producenten kan sagtens vælge at gøre det anderledes. Det er altså ikke usædvanligt, at de kun vælger at overclocke pipelines og lade shaderne være. F.eks. noget du vil se med XFX 8800GTX-xxx Shaderen er stadig 1350Mhz som standard-GTX-kort. Men pipelines er overclocket til 630Mhz. :) Det er efter lidt research noget som praktisktaget alle producenter benytter sig af. De ændre altså i bios, og overclocker kun pipelines.



    #10
    Psym
     
    Overclocker
    Tilføjet:
    23-01-2007 19:00:17
    Svar/Indlæg:
    663/58
    så det er bedre at oce pipes ?



    red_martians
     
    Moderator
    Tilføjet:
    23-01-2007 20:08:33
    Svar/Indlæg:
    7881/1165
    #10: ved det ærligt talt ikke. Tror det handler lidt om hvad man ønsker at bruge kortet til.



    moskeeto_
     
    Overclocker
    Tilføjet:
    23-01-2007 21:09:17
    Svar/Indlæg:
    56/6
    Som altid en god anmeldelse fra dig red_martians :)

    Men tænkte på noget. Når jeg ser en graf hvor man sammenligner har jeg ofte mere overblik hvis søljerne ligger ned, synes bare det bliver lettere at sammenligne mellem forskellige kort.
    Eller evt. dele det op i opløsninger istedet for grafikkort, så alle 1280x1024 målinger er ved siden af hinanden, så man hurtigt kan se hvad der er det hurtigste :D



    red_martians
     
    Moderator
    Tilføjet:
    23-01-2007 21:21:22
    Svar/Indlæg:
    7881/1165
    #12: jeg har ikke prøvet at lægge søjlerne ned.. men kunne da sagtens overveje det.... Det med opløsningerne/grafikkortene, har prøvet begge dele, og altid får jeg en kommentar på hvorfor jeg ikke har gjort det omvendt :)
    Håber du forstår... folk ser åbentbart resultaterne bedst på den ene eller den anden måde. så har her for et års tids siden fasthold denne med grafikkortet.