Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: ASUS
DK distributør: Hasee.dk

 

Innovation/Teknologi

(Tak til Red_Martians for dette afsnit)
Geforce 9800GX2 er grafikkortet der skal gøre det, som 7950GX2 gjorde for et års tid siden. Med støjsvag køling, lavt effektforbrug, to grafikchips og en stor mængde ram. Dette grafikkort skal vise verden hvem der bestemmer; hvem der er de bedste til at få flere grafikchips til at arbejde hånd i hånd.

Ligesom Radeon HD3870X2 og Geforce 7950GX2 er der tale om en tre-chip løsning. Der er to stk.G92-chips, som er fra 8800GT/GTS512, og så den såkaldte B200-bridge, som vi faktisk også ser på nForce-bundkort til Intel. Fidusen er at den kan takle 48xPCI-express på en gang. Det lyder skørt, men det øger effektiviteten og forkorter signalvejen. Tjek billedet nedenfor som er fra 7950GX2. Chippen kan dog nu tackle PCI-espress2.0 og er hybrid-power-kompatibel. (Mere om det længere nede).
 
 
Geforce 9800GX2 er et directX10-grafikkort, med i alt 256 unified shaders (omregnet til ati-sprog: 512 shaders) og disse arbejder med en hastighed på over 1,6GHz - nVidia har uden tvivl markedets hurtigste grafikdel på det her punkt.
Ramkredsene er 256bit per grafikchip og rammene er delt sådan op, at hver grafikchip har hver deres portion ram, men alt i alt kan det godt forsvares at de arbejder 512bit samlet. Det er sådan med dual-chip-løsninger, at de tit gemmer ens data på hver deres ramlager. I sådanne situationer er det tit spildt plads, men giver i sidste ende også højere båndbredde.  
PCI-express 2.0 har dette kort også. PCI-express 2.0 kan overføre med 500MB/s per lane. Det betyder ganske enkelt, at der er nogle dataspor, der bliver kaldet lanes. Har den 16 spor, så kaldes det altså PCI-express x16, og man kan med PCI-express 2.0 overføre data med 8GB/s. Den gamle PCI-express-standard var 250MB/s per lane. Det kræver dog at man også har et PCI-express 2.0-bundkort, for ellers vil hastigheden blive styret af den langsommeste standard: Der bliver dannet en flaskehals.

Yderlige egenskaber
 
PureVideo HD er nVidia’s ord for video-dekodning. Geforce9-serien har selvfølgelig PureVideo egenskaber, der nu er blevet udvidet med en HD-betegnelse. PureVideo beskriver bl.a. muligheden for HD-dekodning der med det nye Digitale TV, HD-DVD’er og BluRay-Diske’er er muligt. Med Geforce8800 er det også muligt at se AACS-beskyttet indhold (kopibeskyttede medier), der tidligere kun har været forbeholdt enkelte grafikkort. PureVideo HD udvider derudover med forbedret støjreduktion (HD noise reduction) og skarpere kanter (HD edge enhancement) som noget nyt er der også understøttelse for HD-video komprimering hvilket var noget som ældre 8800-grafikkort manglede, men som resten af Geforce8 og 9-serien har. Dette har G94 også.http://www.nvidia.com/page/purevideo_support.html
SLi  De største nyere nVidiagrafikkort understøtter SLi. Kort fortalt betyder det, at hvis man har et bundkort der er SLi-mærket kan man bruge to ens nVidia-grafikkort, og udnytte deres samlede kræfter på en skærm. Vi snakker om Geforce7100GS og større. Med et Geforce8200-bundkort vil der også være mulighed for hyprid-SLi. Med så kraftige grafikkort som dette vil SLi i 3D blive slået fra, men i 2D vil det integrerede grafikkort slukke for det store, og derved spare strøm.
Hyprid-power. Er der integreret nvidia grafikchip på bundkortet (Geforce8200), kan det integrerede grafikkort lukke de strømslugende og varmeafgivende grafikkort ned, når der ikke er brug for dem. Geforce9600GT og 9800GX2 skulle være de første der kan gøre det.
FSAA står for Full Scene Anti Aliasing, og er med til at give en fiktiv højere opløsning end det ellers ville være muligt. En egenskab der især er en fordel på fladskærme der kun har en til to ægte-opløsninger. 4x, står for 4 gange så mange pixels, og det giver sig til syne på skærmen som få eller ingen blinkende pixels, og ingen ujævne og hakkede kanter. Geforce8/9-serien har derudover flere typer. Den nyeste er CVAA, der udvider den gamle form til 8 og 16x uden at gå på kompromis med billedkvaliteten, og stadig med fornuftig ydelse.
Texture-Filtrering Er en egenskab der er på næsten alle grafikkort. Idéen er at man oprindeligt har opbygget computerspillene for den bedste ydelse. For at grafikkortet får mindst muligt at lave, er detaljerne ikke så fine dybt i billedet som forrest. Det gør at overgangene mellem de dele med færre detaljer op til dem med mange, bliver meget tydelig. Og problemet løses med filtrering. Det nyeste hedder Anisotrofisk Filtrering og kan bruges af praktisktaget alle grafikkort efter år 2000. nVidia skulle til at bruge en ny løsning der giver meget høj kvalitet.
Quantum Effect(PhysX) En ny egenskab der kan lave Fysik-effekter sideløbende med grafikken, takket være den unified shader. Det gør at man reelt ikke behøver et Fysik-kort længere, men det vil også betyde at Fysik’en vil kunne sænke ydelsen på grafikkortet. Men klart et spændende tiltag. Med nVidia’s overtagelse af Ageia vil der muligvis komme en PhysX-program til geforce-kort med unified shader, så det bliver muligt at kører physX-programeret fysik med sit geforce-grafikkort.
Timozzdk
 
Elitebruger
Tilføjet:
06-06-2008 12:00:36
Svar/Indlæg:
1636/115
Utroligt det ikke giver mere i spil. Er det mon cpu begrænset? Skal man op i en 8´kernet 4ghz cpu før det tæsker igennem i spil.

#edit# jacob, du har vel ikke prøvet med mere end 3.2ghz på cpu´en med quad sli vel?


Johnny
 
Superbruger
Tilføjet:
06-06-2008 12:40:12
Svar/Indlæg:
2127/11
Så vidt huskes, skal man op i højere opløsninger før et af de gfx's for alvor bider fra sig, og med to skal man formentlig endnu længere op. Selv ikke i 16x10 tror jeg at man kan se noget reelt, da cpu'en stadig nemt bliver en for begrænsende faktor. Vi skal imo op over 19x12 før det for alvor giver mening.

Men der ud over: Man ser rundt omkring på nettet at folk har gevaldigt bøvl med quad sli, så enten er driverne ikke gode nok endnu, eller også er fire kerner bare for meget pt.


ZnarF
 
Elitebruger
Tilføjet:
06-06-2008 13:16:53
Svar/Indlæg:
1058/59
Når nu en at der for en skribent er så store problemer med at få det til at virke, så giver det da slet ikke nogen mening for andre at prøve sådan som verden ser ud i øjeblikket.

Det skulle da kun være hvis man har købt alt hvad der findes af hw ellers og samtidig har en 30" dell


lumske
 
Elitebruger
Tilføjet:
06-06-2008 16:12:50
Svar/Indlæg:
3485/76
#3 skribenter er jo ikke nødvendigvis bedre end dig 😉 alle kan jo opleve driver fuck up osv... 🙂

#0 synd du fik så mange problemer, dog vil jeg gerne påpege igen at med så meget GPU kræft kan man ikke regne med en cpu der ikke render hurtigere kan føde dem nok 😉
og som nævnt før, opløsningen er for lav 😴


MadsAG
 
Elitebruger
Tilføjet:
06-06-2008 16:49:45
Svar/Indlæg:
5421/53
#3 Hvorfor skal det være dell?


hamderD
 
Elitebruger
Tilføjet:
06-06-2008 17:38:03
Svar/Indlæg:
7263/260
God test, men igen. Det giver godt nok ikke meget, prøv med en nogle højere opløsninger, nu skal vi jo bare overhovedet være glad for han har ville bruge sin tid på at skrive den. 🙂


phg
 
Elitebruger
Tilføjet:
06-06-2008 20:33:13
Svar/Indlæg:
1399/43
jeg syntes det er utroligt at nvidia intet har lært,de havde samme problemer med dengang man prøvede at sætte 2 stk 7950gx2 i sli


TheTweaker
 
Overclocker
Tilføjet:
07-06-2008 11:18:10
Svar/Indlæg:
76/6
Kan de kun 2 GB system RAM samt Windows Vista 32 bit (pga RAM) ikke være en flaskehals i systemet ?


JacobHL
 
Elitebruger
Tilføjet:
07-06-2008 11:42:28
Svar/Indlæg:
1776/116
#1 - Systemet var som nævnt ret ustabilt, og i starten da computeren var overclocket ganske pænt troede jeg at det var grundet overclocket.. Så jeg returnerede til standard clocks hvor det faktisk kørte fint et lille stykke tid indtil den begyndte at crashe og agere sjovt igen. Af den grund valgte jeg at køre stock fordi jeg ville være sikker på at det ikke var pga clocket at den blev ustabil. Længere inde i test-processen kunne jeg dog godt se at det sandsynligvis ikkev ar CPUen der gjorde rod, men snarere en kombination af 790i chipsættet, Vista og quad-SLI driverne.

#2 - I XP kan man let teste i højere opløsninger end skærmen understøtter via et mindre system tweak, men så simpelt er det desværre ikke i Vista. Jeg har desværre kun adgang til en 1280x1024 skærm her og da jeg sagde ja til at teste systemet havde jeg desværre overset at man ikke kan benche i højere opløsninger end skærmen understøtter i Vista.

#8 - 2GB ram burde ikke være den begrænsende faktor når vi taler så relativt små opløsninger. Muligvis kan det godt begrænse en smule i Crysis, men jeg må indrømme at jeg faktisk ikke ved det.

#alle - Jeg må indrømme at jeg krummede lidt tæer da denne artikel skulle frigives, for selvom jeg har smidt meget mere blod, sved og tårer i denne test end jeg normalt gør er resultatet desværre ikke som jeg havde håbet. Jeg er glad for at "blot" kommer med forslag til hvordan artiklen kunne være bedre i stedet for at slagte mig for at lave en dårlig artikel 🙂
Jeg var over adskillige formateringer, installationer, forsøg på driverinstallationer og lignende og der var bare intet der lod til at virke. Selv hvis ydelsen havde været bedre så ville jeg nok ikke anbefale QuadSLI af den ene grund at det ganske enkelt ikke fungerer optimalt. Om det er chipsæt/vista komboen eller hvad skal jeg ikke sige, men der går i hvert fald lang tid før jeg nogensinde får et nVidia chipsæt samt Vista i mine maskiner igen 😉


Gripen90
 
Senior Skribent
Tilføjet:
07-06-2008 15:17:47
Svar/Indlæg:
15982/637
Folkens i glemmer altså selve supporten Det er naivt at tro man kan smække flere kort sammen og så forvente den 4dobbelte ydelse. For at det skal kunne udnyttes skal det understøttes eller er det komplet ligemeget hvor meget power man end sidder inde med.
Spilproducenter mv. sætter ikke mange ressourcer i at optimere spil til Quad-SLi eller Triple-SLi da det er så lille en målgruppe der har de økonomiske midler til det. Nej de sparer pengene til andre optimeringer og rettelser. Som der nævnes kan vi bare se tilbage på 7950GX2 i Quad-SLi, det gav intet andet end en blær-effekt. Spilproducenterne yder simplethen ikke supporten i det omfang Quad-SLi kræver. Det eneste spil der ser ud til at drage nytte af Quad-SLi er Call of Duty 4.
Fokus er stadig på almindelig SLi som de fleste kan betale sig fra. Det er nøjagtigt som Dual vs Quad-core CPU'erne - der skal noget understøttelse til det før det dur.


Johnny
 
Superbruger
Tilføjet:
07-06-2008 16:18:36
Svar/Indlæg:
2127/11
#9 Det ville da ha været unfair at forsøge at tvære dig ud, når du tydeligvis har gjort en kæmpe indsats for at får det %&¤&&%# crap til at køre ordentligt. Vi har vel alle på et tidspunkt siddet og været tæt på at flå håret af os, når en pc spiller rigtig godt gammeldags dum, så mon ikke flertallet føler med dig i stedet 🤡

Jeg er med dig i din konklusion; at tiden ikke er moden til quad sli endnu. Man ser også en del der har købt sådan to størrelser sælge det ene, så de ikke videre imponerende resultater, er du næppe ene om at have opnået.

Mht opløsningen: Vidste faktisk ikke en gang at man ku lave det trick med xp, ups 😳


Miccim
 
Elitebruger
Tilføjet:
08-06-2008 11:46:39
Svar/Indlæg:
3233/128
#9

Ja din indsats har da været helt udover det sædvanlige her og det skal du have tak for!