Test: BFG 8800GTS OC SLI

Grafikkort, NVIDIA  d.  26. februar. 2007, skrevet af sko 8 Kommentarer.  Vist: 13626 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: BFG
DK distributør: n/a

Innovation og teknologi



Afsnit venligst udlånt af red_martians:

Geforce8800GTS er lille-søsteren til det virkelig roste Geforce8800GTX. Den chip som geforce8800-serien har kaldes G80, og har 681mio transistorer. For folk der ikke kender til det, svarer det til antallet i 3 dualcore AthlonX2 cpu'er. Denne chip er altså en gigant uden lige. DirectX10 kommer med den nyeste form for grafikbehandling kaldet shadermodel4.0. Den vil udvide computergrafikkens grænser, så fotorealisme for alvor kommer inden for rækkevidde. Vi kan roligt sige velkommen til Jurassic-park realtime.



Normalt har GTS 640MB ram. Men i den kommende tid for vi dem også at se med 320Mb ram(bl.a. dette). En besparelse prismæssigt på omkring 1000kr. Men vil en halvering af rammængden ikke give kortet en lavere hastighed. Svaret er faktisk nej. 320MB-versionen er på alle områder ligeså hurtig som sin 640MB-bror. Der hvor forskellen ligger er om spillet/programmet kan udnytte den store mængde ram, ikke om grafikkortet er hurtigt nok. Så hvis spillet kan fylde over 320MB op med data så får 640MB-versionen en fordel.. og jo større mængde ram spillet kan udnytte på grafikkortet, jo mere flydende vil spillet køre ( = højere hastighed i pressede situationer) Meget få spil i dag kan ikke engang udnytte de 256MB ram der er på flere mindre grafikkortet. Ganske enkelt fordi at spillet også gerne skulle være spilbart på mindre maskiner.
Noget kunne dog tyde på at den ekstra mængde ram kan have en fordel med directX10 og Vista, men vi ved det desværre ikke med sikkerhed før vi får directX10-spil og benchmark-programmer (forhåbentligt snart)




Det nye og spændende kommer til udtryk herover. Unified Shader gør at flere slags beregninger kan varetages af den samme del i chippen. Det gør absolut ikke chippen mindre, men til gengæld langt mere effektiv, da den altid vil være fuldt optaget. Unified shader kan kun bruges til effekter, og gamle ord som pipelines, ROPs osv. eksisterer stadig i bedste velgående. 8800GTS har dog fået en del deaktiveret som vi vil skrive om senere, men det har vi krydset af i den første model.

Indtil vi fik det første 8800GTS-kort mellem hænderne vidste vi ikke helt hvor mange pipelines nVidia havde udstyret kortet med, men alt tyder på at det er 24. Nvidia har dog fortalt at kortet har 96shader-units og 20ROPs og ud fra disse tal vil jeg tro at kortet kan lave 160Z-pixels ad gangen. Kortet kan i nogle tilfælde have hele 48 pixelpipelines. Disse kommer til udtryk når man vælger et filtrere billedet, der er med til at give skarpere detaljer. Idéen er at man ikke taber ret meget ydelse ved at slå denne tunge egenskab til.



Derudover har nVidia indført en slags Hyperthreading kaldet GigaThread, som vi kender fra de gamle Intel Pentium 4 cpu'er. Grafikkortet kan arbejde mere flere tråde ad gangen, og bliver dermed endnu mere effektiv.




Yderlige egenskaber




  • PureVideo HD er nVidia's ord for video-dekodning. Geforce8-serien har selvfølgelig Pure-video-egenskaber, der nu er blevet udvidet med en HD-betegnelse. PureVideo beskriver bl.a. muligheden for HD-dekodning der med det nye Digitale TV, HD-DVD'er og BluRay-Diske'er er muligt. Med Geforce8800 er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. Pure-video HD udvider derudover med forbedret støjreduktion (HD noise reduction) og skarpere kanter (HD edge enhancement)
    http://www.nvidia.com/page/purevideo_support.html

  • SLi De største nyere nVidia grafikkort understøtter SLi. Kort fortalt betyder det, at hvis man har et bundkort der er SLi-mærket kan man bruge to ens nVidia-grafikkort, og udnytte deres samlede kræfter på en skærm. Vi snakker om Geforce7100GS og større.


  • FSAA står for Full Scene Anti Aliasing, og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. Geforce8-serien har derudover flere typer. Den nyeste er CVAA, der udvider den gamle form til 8 og 16x uden at gå på kompromis med billedekvaliteten, og stadig med fornuftig ydelse.


  • Texture-Filtrering Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør at overgangene mellem de dele med færre detaljer op til dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotrofisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. nVidia skulle til at bruge en ny løsning der giver meget høj kvalitet.

  • Quantum Effects En ny egenskab der kan lave Fysik-effekter sideløbende med grafikken, takket være den unified shader. Det gør at man reelt ikke behøver et Fysik-kort længere, men det vil også betyde at Fysik'en vil kunne sænke ydelsen på grafikkortet. Men klart et spændende tiltag.







    Strømforbrug


    Geforce8800GTS strømforbrug er slet ikke så højt som GTX-modellen, men stadig i det område jeg vil betegne som kritisabelt. Det holder sig over hele linien under Geforce8800GTX og i 2 ud af 3 tilfælde under Geforce7950GX2, og det gør at kortet stadig ligger i en strømklasse med Radeon X1900-serien. Det er uanset ydelse bare en tand for meget, og jeg tør slet ikke tænke på belastningen med to af disse bæster.

    Især i 2D-miljø brugte kortet ufattelig meget strøm. Mere end 40watt over de mindst strømslugende grafikkort vi har haft. Det er så absolut en del, og for meget, når vi ved at nVidia med bl.a. 7900-serien kunne sænke forbruget til 40-50watt under 8800GTS.

    Ved SLI skal man tænke på, at man skal bruge 2 PCI-e stik. I hvert fald ved 8800GTS SLI. Derudover anbefaler Nvidia, at strømforsyningen leverer en vis mængde amperer på 12v rail. Derfor er det en god ide lige at tjekke, om ens strømforsyning kan klare SLI





    Pointgivning i Innovation & teknologi
    Kortet er på mange måder et skridt frem for nvidia. Unified shader ser ud til at have visse fordele, og chippens kapacitet, sammen med udvidelsen af rammene til 320bit giver det et kæmpe boost. Ud fra teknologien og vores pixeltest, ser det ud til at dette kort er specialiseret i de tungeste effekter. Men man bliver nød til det, for at spare på chippens størrelse, og da man alligvel ikke kan hente rå ydelse, kan man lave flottere effekter ved samme ydelse. Kortet er parat til DirectX10, som vil gøre spillene langt mere realistiske end tidligere set. Dog er det en strømsluger, så samlet set giver vi det 4-point her.



  • Gripen90
     
    Senior Skribent
    Tilføjet:
    26-02-2007 12:04:12
    Svar/Indlæg:
    15982/637
    Hvis i vil se forskellen i SLI så bring F.E.A.R el. Condemed Criminal Originas el. evt Call of Duty 2 med ind i jeres spil oversigt.
    Hvad der går galt i jeres Quake 4 gennemgang ved jeg ikke, da Quake 4 helt klart drager nytte af SLI. Så om det er driver problemer ved jeg ikke, men jeg ved at jeg fik et 50% ydelses boost i 1680x1050 med 4xFSAA/16xAF da jeg fik et ekstra 7900GTO i PCen alt uden OC, og med Dual Core patchen installeret lå min FPS på ca115FPS selv i den opløsning.
    I kan jo se i Prey da profiteres der godt af SLI.
    Som i også konkluderer så understøtter Aquamark3 ikke SLI. Men i skulle have prøvet at slå 4xfsaa og 8xaf til og så set forskellen.





    Gripen90
     
    Senior Skribent
    Tilføjet:
    26-02-2007 12:07:49
    Svar/Indlæg:
    15982/637
    Nåh ja smid lige Ghost Recon Advanced Warfighter med i mht SLI :)



    sko
     
    Elitebruger
    Tilføjet:
    26-02-2007 12:09:44
    Svar/Indlæg:
    1954/464
    # 1..

    tak for dine råd..

    # 2..

    ja...men det vi tester er det vi selv har...og har ikke lige Ghost Recon Advanced Warfighter.

    men hvis du sponserer den, så skal jeg nok teste den.

    ;)



    Gripen90
     
    Senior Skribent
    Tilføjet:
    26-02-2007 12:33:15
    Svar/Indlæg:
    15982/637
    #3: G.R.A.W demoen kan godt bruges da der ikke er nogen nævneværdig forskel på demoen og retail udgaven mht grafik/ydelse mv. Dog husk på at G.R.A.W understøtter ikke FSAA pga game enginens MRT (multiple render targets ) :)



    Erroneus
     
    Elitebruger
    Tilføjet:
    27-02-2007 02:21:19
    Svar/Indlæg:
    673/19
    Der er vist dobbelt af det samme billede under 3dmark03



    noxon
     
    Elitebruger
    Tilføjet:
    27-02-2007 13:56:10
    Svar/Indlæg:
    3321/21
    #5
    Ja er der, og en del andre billeder bliver ikke større når man trykker på dem.

    Udover det udregner AM3 ikke score fra cpu og gfx scoren, men avg. fps.
    fx. er 120.000 points så 120fps i gennemsnit.

    Og så kunne det da ha været rart med lidt flere sammenligninger i spil, end de par stykker der er.



    sko
     
    Elitebruger
    Tilføjet:
    27-02-2007 14:04:24
    Svar/Indlæg:
    1954/464
    # 6...

    det med billeder vil jeg lige kigge lidt på..

    med hensyn til hvad vi skal teste i..så begrænses det af hvad den enkelte skribent har..

    men som jeg har sagt tidligere, hvis du vil sponsore noget, er du da meget velkommen. Så skal jeg gladelig teste i det.

    ;)



    ncdesign
     
    Elitebruger
    Tilføjet:
    02-03-2007 22:25:37
    Svar/Indlæg:
    262/26
    #7: Det blev vist ikke til meget mere end at kigge :e :e
    Billederne er bliver ikke større når man klikker på dem, og den graf i har lavet med strømforbruget er da ret interessant, når man som jeg skal til at investere i en ny PSU...

    Kan i ikke lige få dem rettet til?

    også sendt som PM, for det tilfælde, at tråden her skulle blive overset - sidste indlæg er jo fra d. 27/2-07...