Test: Gigabyte GV-NX88S640H-RH

Grafikkort, NVIDIA  d.  14. december. 2006, skrevet af red_martians 23 Kommentarer.  Vist: 10984 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Gigabyte
DK distributør: Conta

Innovation/teknologi



Geforce8800GTS er lille-søsteren til det virkelig roste Geforce8800GTX. Den chip som geforce8800-serien har kaldes G80, og har 681mio transistorer. For folk der ikke kender til det, svarer det til antallet i 3 dualcore AthlonX2 cpu'er. Denne chip er altså en gigant uden lige. DirectX10 kommer med den nyeste form for grafikbehandling kaldet shadermodel4.0. Den vil udvide computergrafikkens grænser, så fotorealisme for alvor kommer inden for rækkevidde. Vi kan roligt sige velkommen til Jurassic-park realtime.



Geforce8800GTS har derudover 640MB ram. Et skævt tal, der i virkeligheden dækker over at nVidia har koblet yderligere ram kanaler til chippen så den snakker med 10chip på 10kanaler. Det giver mere båndbredde end man tidligere har set, og mere ram end nogensinde før på et single grafikkort til spilbrug. De mange ram, vil gøre det muligt at spille i ufatteligt høje opløsninger med lige så ufatteligt mange detaljer. Noget vi helt sikkert glæder os til, men det kræver tre ting. Windows Vista, DirectX10 og et spil der bruger directX10. Ingen af delene eksisterer endnu, så vi må indtil videre nøjes med vores 32bit windowsXP, directX9 og directX9/opgenGL-spil. NVidia siger dog at XP-folk ikke skal føle sig snydt, da der er udvidelser til OpenGL der vil gøre det muligt at lave lignende effekter i XP.



Det nye og spændende kommer til udtryk herover. Unified Shader gør at flere slags beregninger kan varetages af den samme del i chippen. Det gør absolut ikke chippen mindre, men til gengæld langt mere effektiv, da den altid vil være fuldt optaget. Unified shader kan kun bruges til effekter, og gamle ord som pipelines, ROPs osv. eksisterer stadig i bedste velgående. 8800GTS har dog fået en del deaktiveret som vi vil skrive om senere, men det har vi krydset af i den første model.

Indtil vi fik kortet mellem hænderne viste vi ikke helt hvor mange pipelines nvidia havde udstyret kortet med, men alt tyder på at det er 24. Nvidia har dog fortalt at kortet har 96shader-units og 20ROPs og ud fra disse tal vil jeg tro at kortet kan lave 160Z-pixels ad gangen. Kortet kan i nogle tilfælde have hele 48pixelpipelines. Disse kommer til udtryk når man vælger et filtrere billedet, der er med til at give skarpere detaljer. Idéen er at man ikke taber ret meget ydelse ved at slå denne tunge egenskab til.



Derudover har nVidia indført en slags Hyperthreading kaldet GigaThread, som vi kender fra de gamle Intel Pentium 4 cpu'er. Grafikkortet kan arbejde mere flere tråde ad gangen, og bliver dermed endnu mere effektiv.



G80-chippens rå ydelse testes herover. Det kaldes Fillrate, og beskriver hvor mange pixels den kan lave i sekundet. Da GTS-udgaven af G80-chippen kan lave op til 48pixelberegninger ad gangen (kaldet 48 pipelines) er det en chip med meget overskud. Dog kan den maximalt lave 20pixels ad gangen(kaldet ROPs). Det lyder som spildte kræfter, men mange effekter bruger flere pipelines ad gangen, og derfor vil det være spild af transistorer at sætte flere ROPs på. Da effekterne er flyttet over på den nye Unified Shader, er pipelinens vigtigste opgave at filtrerer overflader og lave skarpere billeder, og det gøres op til 2.5x hurtigere end tidligere modeller. Vi tester kun kortets evne til at lave overflader, og så har det "kun" 32 pipelines. Det vi ser er at både GTX og Geforce7950GX2 virkelig stikker af her. Det ser virkelig ikke godt ud for kortets ydeevne.



I shader-testen, der tester effekter, havde vi klart forventet noget bedre ydelse. Især når vi tager i betragtning af, at det ikke er et virkeligt scenario. I den virkelig verden ville Vertexshaderen og den kommende Geometrishader også have plads, hvilket vil betyde lavere ydelse under alle omstændigheder. Men der kan være rigtig mange grunde til den dårlige ydelse. Programmet er ved at være halvgammelt, og 8800GTX fungerer muligvis bedre med nyere effekter baseret på shadermodel 3.0 og DirectX10's kommende shadermodel 4. På den anden side er det måske virkelighed, da Geforce7950GX2 samlet set har 96shader-processorer, der faktisk er det samme som GTS's 96 Unified Shaders. Derudover har GX2 sine egne vertexshadere osv. Men tjek lige testen med de tungeste effekter, her ligger 8800GTS pludselig lige med GX2, og det er disse effekter som fremtiden spil vil bruge. Men alt i alt ser det stadig ikke særlig godt ud for Geforce 8800GTS.





Yderlige egenskaber




  • PureVideo HD er nVidia's ord for video-dekodning. Geforce8-serien har selvfølgelig Pure-video-egenskaber,der nu er blev udvidet med en HD-betegnelse . PureVideo beskriver bl.a. muligheden for HD-dekodning der med det nye Digitale TV, HD-DVD'er og BluRay-Diske'er er muligt. Med Geforce8800 er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. Pure-video HD udvider derudover med forbedret støjreduktion(HD noise reduction) og skarpere kanter (HD edge enhancement)
    http://www.nvidia.com/page/purevideo_support.html

  • SLi De største nyere nVidia grafikkort understøtter SLi. Kort fortalt betyder det, at hvis man har et bundkort der er SLi-mærket kan man bruge to ens nVidia-grafikkort, og udnytte deres samlede kræfter på en skærm. Vi snakker om Geforce7100GS og større.


  • FSAA står for Full Scene Anti Aliasing, og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. Geforce8-serien har derudover flere typer. Den nyeste er CVAA, der udvider den gamle form til 8 og 16x uden at gå på kompromi med billedekvaliteten, og stadig med fornuftig ydelse.


  • Texture-Filtrering Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør at overgangene mellem de dele med færre detaljer op til dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotrofisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. nVidia skulle til at bruge en ny løsning der giver meget høj kvalitet.
    Vi har denne gang brugt nVidia's nyeste driver 97.02. Her virker den nye form for Ani, og vi skal også senere se at der faktisk ikke er forskel på ydelsen. Samtidig lagde vi mærke til at gamma-korrigeret FSAA var aktiveret fra standard i denne driver, hvilket vi hverken så i 96.89 eller 96.96. Så lækkert at se at driveren nu virker som den skal på dette område

  • Quantum Effects En ny egenskab der kan lave Fysik-effekter sideløbende med grafikken, takket være den unified shader. Det gør at man reelt ikke behøver et Fysik-kort længere, men det vil også betyde at Fysik'en vil kunne sænke ydelsen på grafikkortet. Men klart et spændende tiltag.







    Strømforbrug


    Geforce8800GTS strømforbrug er slet ikke så højt som GTX-modellen, men stadig i det område jeg vil betegne som kritisabelt. Det holder sig over hele linjen under Geforce8800GTX og i 2 ud af 3tilfælde under Geforce7950GX2, og det gør at kortet stadig ligger i en strømklasse med Radeon X1900-serien. Det er uanset ydelse bare en tand for meget, og jeg tør slet ikke tænke på belastningen med to af disse bæster.

    Især i 2D-miljø brugte kortet ufattelig meget strøm. Mere end 40watt over de mindst strømslugende grafikkort vi har haft. Det er så absolut en del, og for meget, når vi ved at nVidia med bl.a. 7900-serien kunne sænke forbruget til 40-50watt under 8800GTS.





    Kortet er på mange måder et skridt frem for nvidia. Unified shader ser ud til at have visse fordele, og chippens kapacitet, sammen med udvidelsen af rammene til 320bit giver det et kæmpe boost. Ud fra teknologien og vores pixeltest, ser det ud til at dette kort er specialiseret i de tungeste effekter. Men man bliver nød til det, for at spare på chippens størrelse, og da man alligvel ikke kan hente rå ydelse, kan man lave flottere effekter ved samme ydelse. Kortet er parat til DirectX10, som vil gøre spillene langt mere realistiske end tidligere set. Dog er det en strømsluger, så samlet set giver vi det 4point her.
  • Palme
     
    Overclocker
    Tilføjet:
    14-12-2006 23:04:43
    Svar/Indlæg:
    122/4
    Lækker test, kunne godt være det blev mit næste gfx :P
    Hvordan var temps under oc?



    DTU_XaVier
     
    Elitebruger
    Tilføjet:
    15-12-2006 00:00:08
    Svar/Indlæg:
    2786/120
    Ahhh... Det næste OC-vidunder er landet... Minder mig om de første Winchester CPUer og 5900XT, for ikke at forglemme 7900GT og Conroe :P

    MVH.
    Toke :)



    red_martians
     
    Moderator
    Tilføjet:
    15-12-2006 07:47:46
    Svar/Indlæg:
    7881/1165
    #1: Tjekkede det ikke, men kortet var stabilt. :e



    #4
    8L
     
    Overclocker
    Tilføjet:
    15-12-2006 13:24:17
    Svar/Indlæg:
    208/47
    Tak for en god test :)
    Fedt overclock. Måske man skulle tage det her kort i stedet for GTX.



    red_martians
     
    Moderator
    Tilføjet:
    15-12-2006 14:16:00
    Svar/Indlæg:
    7881/1165
    #4: det ligger som overclocket lige røven af GTX... Det må da siges at være gode 1500kr at spare... Men jeg garanterer virkelig ikke for kvaliteten af chipsne. Dette gigabyte viste utrolig gode OC-egenskaber. Andre chips er nok ikke så villige, men tror ikke det er et problem at runde 600Mhz med nogle af dem, og det er alligvel godt 15-20% som stadig er ganske flot



    Gripen90
     
    Senior Skribent
    Tilføjet:
    15-12-2006 15:25:19
    Svar/Indlæg:
    15982/637
    hmm når det kommer ned på en 2800kr er det værd at overveje :p



    Anzelz
     
    Elitebruger
    Tilføjet:
    15-12-2006 22:39:55
    Svar/Indlæg:
    2343/272
    Cool 8) + er der er muligheder for lidt oc sjov, så man kan spare lidt penge:e

    Og godt at se GX2 ikke er afsporet helt :i



    #8
    8L
     
    Overclocker
    Tilføjet:
    16-12-2006 11:10:49
    Svar/Indlæg:
    208/47
    #5
    Ja det er da en fin besparelse. Plus det er sjovere at have et kort der er villigt til at lade sig oc. De GTX'er jeg har læst om har ikke kunnet det store der.
    Håber der kommer flere tests af GTS :e



    moskeeto_
     
    Overclocker
    Tilføjet:
    16-12-2006 15:47:22
    Svar/Indlæg:
    56/6
    God test, der også går i dybden 🙂

    Men jeg undrede mig lidt over denne formulering:"I modsætning til 8800GTX, så vi virkelig nogle flotte OC-resultater her. Faktisk overclockede grafikkortet op til samme frekvenser som 8800GTX i overclocket tilstand. Et overclocket 8800GTS nåede næsten at ramme hastigheden som et 8800GTX-standard."

    Da kortet bliver overclocket når det så GTX standard eller overclocket hastighed?





    #10
    OEA
     
    Superbruger
    Tilføjet:
    16-12-2006 16:05:27
    Svar/Indlæg:
    1711/30
    #9 Det når et 8800GTX @ Stock , næsten ;)



    red_martians
     
    Moderator
    Tilføjet:
    16-12-2006 18:46:33
    Svar/Indlæg:
    7881/1165
    #9:
    8800GTS i oc'et tilstand når samme frekvenser som det mest oc-venlige 8800GTX (ASUS) jeg har haft. Altså omkring 660Mhz på kernen.

    GTS versionen er så godt 30% langsommere per Mhz end GTX, så trods den høje frekvens, yder det kun som et standard GTX ville gøre.



    !-!Shake!-!
     
    Elitebruger
    Tilføjet:
    17-12-2006 12:16:18
    Svar/Indlæg:
    3944/384
    #11 Det skyldes vel et lavere antal pipes?



    Shake



    Gavstrik
     
    Superbruger
    Tilføjet:
    17-12-2006 14:24:58
    Svar/Indlæg:
    650/97
    Ligesom der findes CoreTemp til at overvåge temperaturen på CPU'en, findes der tilsvarende programmer til at overvåge GPU'en?

    Når man OC GPU'en, anvender man et program så vidt jeg har forstået. Betyder det så, at man i princippet først OC sit gfx, når man åbner Windows og starter programmet (eller indtil programmet starter op)? ?:(



    Emillos
     
    Overclocker
    Tilføjet:
    17-12-2006 14:28:30
    Svar/Indlæg:
    14079/622
    ->#13

    Du kan se temperaturen på GPU'en inde i driveren :)

    <i>"Når man OC GPU'en, anvender man et program så vidt jeg har forstået. Betyder det så, at man i princippet først OC sit gfx, når man åbner Windows og starter programmet (eller indtil programmet starter op)?"</i>

    Ja, grafikkortet bliver først overclocket, når programmet er loadet i windows. Sletter på programmet, er grafikkortet ikke længere overclocket.
    Man kan også redigere en BIOS og flashe den over på grafikkortet - så er kortet altid overclocket :)



    Gavstrik
     
    Superbruger
    Tilføjet:
    17-12-2006 14:32:28
    Svar/Indlæg:
    650/97
    I driveren til grafikkortet? mht. temperaturen?

    I den forbindelse har jeg læst mig frem til at det bundkort som jeg skal sidde og lege med (GA-965P-DS4), har mulighed for at øge hastighede på PCIe porten. Er det en dårlig ide at gøre det på den måde? Så i stedet for at sætte den på fx 100 mhz, hæver jeg den til 110 mhz?



    Emillos
     
    Overclocker
    Tilføjet:
    17-12-2006 15:12:39
    Svar/Indlæg:
    14079/622
    Det er nok bedst, hvis du laver en tråd til dine spørgsmål, da denne tråd kun har til formål at kommentere artiklen :)

    Mht PCI-Express frekvensen, får du i bund og grund ingenting ud af at hæve den - udover at det kan medføre ustabilitet.
    Men lav en seperat tråd, så skal du nok få masser af svar ;)



    Gavstrik
     
    Superbruger
    Tilføjet:
    17-12-2006 15:17:41
    Svar/Indlæg:
    650/97
    Sry, min fejl...



    Anonym20219355916
     
    Elitebruger
    Tilføjet:
    17-12-2006 16:28:51
    Svar/Indlæg:
    6181/270
    #14 tror næppe du kan se cpu'en iden i driveren ;)

    lækker test, men kan 8800GTS overhovedet være inde i et almideligt kabinet f.eks mit kabinet?



    red_martians
     
    Moderator
    Tilføjet:
    17-12-2006 16:31:14
    Svar/Indlæg:
    7881/1165
    #18: det er jeg ret sikker på.. det kort har en den længde som de fleste ældre nvidia-kort og nyere ATi-kort.. Det er også kortere end et almindeligt bundkort.



    Emillos
     
    Overclocker
    Tilføjet:
    17-12-2006 16:31:50
    Svar/Indlæg:
    14079/622
    ->#18

    CPU/GPU..du ved hvad jeg mener :00..

    AFAIK er 8800GTS lige så langt som geforce6800..altså 22CM. Så frem med tommestokken sømand ;)
    Har ikke umiddelbart hørt om kabinettet, der ikke er dybe nok til det..



    NiKzEr
     
    Overclocker
    Tilføjet:
    27-01-2007 18:48:25
    Svar/Indlæg:
    94/12
    Hej.. Jeg har selv lige bestilt sådan en satan her :e ..
    Men kunne godt tænke mig og vide om den fantastiske OC test blev lavet med std. køler, eller om der er blevet brugt anden køling til testen :00

    /NiKzEr/



    Sir
     
    Elitebruger
    Tilføjet:
    27-01-2007 18:56:17
    Svar/Indlæg:
    2872/90
    STock køler. altid stock køler!! De skal jo teste produkted som det er orginalt.. ;)



    NiKzEr
     
    Overclocker
    Tilføjet:
    28-01-2007 09:56:56
    Svar/Indlæg:
    94/12
    Super heh :e .. Mit 8800GTS skulle komme først i næste uge (om et par dage), men mangler resten af mine dele :( De kommer først fredag (Hvis jeg er heldig)
    Mit kommende system :p

    CPU: C2D 1.86 Ghz
    CPU Køler: Zalman 9500-LED
    NEC DVD brænder
    RAM: 2*1GB Corsair XMS PC-6400CL5
    MoBo: Gigabyte DS3
    GFX: Gigabyte 8800GTS
    HDD: 320GB Hitachi SATAII + min "lagerdisk" på 250GB
    PSU: 450W OCZ
    Kabinet: Antec Nine Hundred