3Dmark er en specifik test specielt til at teste hardware og især grafikkort med. Futuremark står for produktet ligesom en masse andre test-programmer. Der findes ingen spil ligesom 3Dmark. 3Dmarks vigtigste egenskab er at teste moderne hardware i fremtidens krævende grafik. 3Dmark har tidligere fået meget kritik for at være styret af driveroptimeringer. Dette er til en vis grad korrekt. Nogle mener det er skidt, men jeg er af den flok der mener at grafikchip-producenter skal have lov til at optimerer deres drivere til 3Dmark, ligesom til alle andre spil. Det kan kun give brugeren bedre ydelse, og producenterne for ofte at høre for det, hvis det går ud over billedkvaliteten, som da XGI lavede deres Volari Duo-kort med en driver med virkelig dårlig billedkvalitet. Jeg bruger de tre nyeste udgaver.
03 er generelt kendt for at være meget grafikkortkrævende, og understøtter alle grafikkort med støtte for DirectX7 og derover (dvs.alle Geforce-kort og radeon-kort (undtagen Radeon7000) Samtidig var det den første 3Dmark med test til DirextX9 og shader2.0-egenskaber.
05 var den første 3Dmark udelukkende til DirectX9-kort og med optimeringer til den udvidede directX9 med shader3.0-egenskaber.
06 er den nyeste 3Dmark og kan bruges af alle grafikkort med DirectX9-egenskaber. Men halvdelen af testen bruger kun shader3.0, så for at få mange point er et grafikkort med shader3.0-understøttelse en nødvendighed.
I 3Dmark03 vinder X1800XL med en meget lille margin ned til 7600GT. 7600GT er absolut ikke slået ud og med et lille ekstra overclock ville dette kort være hurtigere end X1800XL i 3Dmark03
I 05'eren ser vi endelig at ATi's X1800-serie kan træke fra. Nu er det sådan et 3Dmark05 er kendt for at være mere CPU-krævende end de 2 andre. Ikke fordi det gør noget for det kunne bare tyde på at ATi er bedre til at udnytte CPU'ens ressourcer.
Tager man udganspunkt i resultatet fra 06 kan jeg godt forstå nogle bliver forvirret. de 4 kort ligger så tæt, at det faktisk er op til tilfædighederne hvilket resultat der er højest. MSI's 7600GT ligger som næst-sidst. og måske ganske fortjent da BFG's udgave er overclocket fra fabrikken.
Fin test. Men beskrivelsen af de forskellige SLI typer er ikke helt korrekt.
Den mest i øjenfaldende er placeringen af billederne.
---------------------
I den mest normale version bruger man 2 identiske grafikkort (Geforce6600GT eller Geforce7600 eller højere) Disse sættes i et SLi-bundkort med understøttelse for 2 grafikkort, og forbindes med en SLi-connector.
Der burde bare stå 6600, da selv den mindste verison, 6600LE har SLI connectoren.
I den anden version kan man bruge alle Geforce6600-kort og alle Geforce7600 og opefter. Den fungerer på præcis sammen måde som ovenstående. Men her behøver man ikke SLi-connectoren. Nogle Geforcekort især i 6600-serien har ikke mulighed for at få monteret connectoren.
Se ovennævnte
Den sidste og nyeste er Quad-SLi. Her har man brug for et sæt specielle Quad-SLi-grafikkort. Disse grafikkort kan bruges i hvilket som helst SLi-bundkort
Ikke korrekt, for at kunne bruge Quad SLI kræver det et bundkort med PCI-E 16x chipset, altså 16x på begge PCI-E baner. Et "normalt" SLI bundkort kører 8x på begge baner når man har 2 grafikkort i.
Moderator
Tilføjet: 08-05-2006 16:01:54
Svar/Indlæg:
7881/1165
#1: den øverste er jeg lidt i tivivl om...men du kan sagtens bruge alle nvidiagrafikkort uden sli-connectoren..selv 7900GTX. Tror ikek at alle 6600LE har sli-stik. ??
Den sidste er god nok... nVidia Quad-SLi fungere faktisk gennem en splitchip der søger for at de to chips for maximalt udbytte af PCI-e.. Faktisk er det ligemeget om det er 4x eller 16x. Quad-SLi vil optimere forbindelsen så godt den kan og fordele data\\\'erne mellem de to chips på den bedste måde. Den er lidt gammel men burde måske skrive at det kun gælder Geforce7900GX og 7950GX. men det er også de to eneste grafikkort man kan lave quad-SLi på.
Noget andet er så at man kan lave SLi på SLi... som f.eks. med dual 6600GT-kort fra Gigabyte eller 7800GT fra ASUS. Men det er knabs så effektivt og her skal man bruge 2stk 16xSLi. som du skriver.
billederne.. har jeg desværre pyttet rundt på og har ikek opdaget det under korrekturen.. de skulle være rettet om få sek. :r
#2 Det er jo ikke "Quad SLi" før du har 4 grafik chips. At de 2 kort på et enkelt 7900/7950GX2 kan arbejde på et "almindeligt" SLi board betyder ikke det kan arbejde med det andet GX2 kort i den anden sokkel. Sådan som jeg har forstået det skal der SLi 16x til før du kan bruge de 4 grafik chips. Men du kan godt køre med 2 graik chips i et almindeligt SLi board.
Er ikke sikker på om der er SLi connector på alle 6600LE. Men mit billige CLub 3D kort har SLi connector.
Er godt klar over man kan køre alle SLi grafikkort i SLi uden SLi bridgen.
Og nu vi er ved billederne (har ikke tjekket) kunne du da også smide et op af quad SLi :p
Moderator
Tilføjet: 09-05-2006 08:59:04
Svar/Indlæg:
7881/1165
#3: Quad... nej det er nemlig to forskellige systemmer.. Rigtig man har brug for 4grafikchips til at opnå quad-SLi, men det kræver endnu mere end det. Det kræver at kortene f.eks. har den chip der kan fordele pci-e-signalet. quad-SLi er hurtyigst fordi at alle fire chips arbejder sindsygt tæt sammen. Det kan de ikke med de former hvor man f.eks. ser ASUS dual7800GT kort sat i sli. Her har vi SLi på SLi og kortene arbejder igennem pci-e-banen for at arbejde sammen.
7900GX og 7950GX har rigtig nok 2chips per kort, men disse to chips arbejder ligeså tæt sammen som var de forbundet med en bridge.. Derfor er quad-SLi (som er det nvidia kalder deres nyeste løsning) hyperkompleks og hurtigst sammenspil, hvor den løsning hvor man sætter to sli-løsninger i sli er en noget langsommere løsning, der heller ikke bruger de avancerede samarbejdsmodeller fra quad-SLi. Faktisk tror jeg heller ikke man kan 32xFSAA på den sidstnævnte løsning. :)
Jeg ved også godt at at de 2 chips på hver kort ikke arbejder igennem PCI-E soklen, men det SLi link som er imellem kortene (kunne ikke lige finde et billede). Men selvom det skulle være åhh så godt, så er det blevet et flop. ;) Selv 2xX1900XTX i CF slår de 4x7900GTX. Om det er driver problemer kan vi kun håbe på.