Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Inno3D
DK distributør: MMD

Layout / Design

Vi skal nu kigge nærmere på kortet. Som den opmærksomme læser vil opdage, har Inno3D brugt Nvidias reference-køleløsning. Dette betyder i praksis, at kortet rent udseendemæssigt er 99% identisk med det Asus EN9800GTX vi tidligere testede, hvis man ser bort fra klistermærkerne på overfladen.

Link til vores tidligere test af Asus EN9800GTX:
http://hwt.dk/literaturedetails.aspx?TeaserID=9257

Nedenstående billede er nuppet fra Inno3D's hjemmeside:

 

Taget fra producentens hjemmeside.

 

Sådan ser det ud forfra. Bemærk at kortet har to 6-pins strømstik i modsætning til eet stk. på 8800GTS 512 og 1x6-pins plus 1x8-pins på 9800GX2.

 

Forfra

 

Endnu et billede forfra. Man er ikke i tvivl om, hvilket spil der følger med i kassen.

 

Er det et spil eller et grafikkort, jeg sidder med?

 

Her kan tydeligt se strømtilslutningerne. Det lille stik over "GeForce"-mærket er en lydindgang.

 

Fra siden.

 

S-VHS og Dual-DVI. Intet fancy HDMI her, desværre. Til gengæld kan der blæses en masse varm luft ud af PC'en gennem rillerne.Bemærk endvidere, at kortet er dualslot.

 

Sådan ser det ud bagfra.  

Sådan vil kortet se ud i din PC. Bemærk at strømtilslutningerne sidder på ydersiden af kortet, det er virkelig et lækkert tiltag!

 

Sort print pynter.

 

Et nærbillede af SLI-tilslutningerne. Her er selvfølgelig mulighed for tri-SLI.

 

 

Her har vi dem så; begge kort ved siden af hinanden.

 

Synet af sådanne kort ved siden af hinanden er guld værd.

 

Et billede ovenfra blev det også til.

 

 

 


Støj, strømforbrug og temperaturer

Støj: (Dette er stort set en copy-paste fra artiklen om Asus EN9800GTX, da kortene er helt ens på dette område).
Da jeg desværre ikke har en decibelmåler ved hånden, må I nøjes med min personlige vurdering. Jeg kunne se, at den automatiske blæserkontrol ved idle stod på 35%, hvor kortet ikke var til at høre overhovedet, men blev overdøvet af den sagte støj fra min PSU ved siden af. Selv under load blev kortets støjniveau ikke irriterende. Gik jeg derimod ind manuelt og satte blæserhastigheden til 100% begyndte kortet at larme en del. Da jeg er ret overfølsom overfor støj, skyndte jeg mig derfor at sætte det ned igen. Det kan da lige siges, at støjen ved fuld udblæsning på blæseren (som man altså skal sætte manuelt, for at få den så højt op) ikke lyder som skærende sirene, som andre kort gør. Det er mere en dyb irriterende summen - lidt á la en støvsuger i tomgang.

Strømforbrug: Desværre har jeg heller ikke mulighed for at teste kortets strømforbrug. Men hvis man kigger på GTX-reviews rundt omkring på nettet vil man kunne se, at dette kort snupper op til ca. den samme effekt som en 8800GTS-kort gør. Idleforbrug for et 9800GTX er på ca. samme niveau som en HD3870X2-kort i idle. Derimod er load-nivauet ca. 100W under både 9800GX2 og HD3870X2.

Temperaturer: Da jeg testede kortets temperaturer sad det i et andet bundkort end jeg testede de andre kort i: Et 780i-kort, der lå frit på bordet. Kortet blev 56 grader idle og 70 grader under full load trods det, at der stort set ingen blæserstøj var. Det er ret imponerende!

 

Sådan ser det ud sammenlignet med andre kort.

 

DreAz
 
Superbruger
Tilføjet:
30-04-2008 07:44:03
Svar/Indlæg:
486/24
Er det ikke lidt spil at teste SLI på et dual core system på 3.3ghz når selv en quad bliver bottlenecked med 3870X2 ?


Gripen90
 
Senior Skribent
Tilføjet:
30-04-2008 08:21:23
Svar/Indlæg:
15982/637
#0: God test 😀 men jeg fatter stadig ikke hvordan jeg formår at score mere i 3Dmark05/06 med eet 9800GX2 end de to 9800GTX i SLi, og intet er OC'et på PC'en... den kan da næppe være den cache til forskel der betyder så meget ? 😐
http://hwt.dk/literaturedetail...


#1: Du skal vist lige sætte dig ind i SLi og Crossfire, så kan du se hvor det kommer til sin rette 😉 . Du skal et stykke ned i CPU hastighed (ned på E6300) hvis det skal være "bottle neck" i de nyeste applikationer.
En CPU laver det samme i 640x480 som i 1920x1200, det er grafikkortet der trækker det grafiske læs og har langt større betydning i højere opløsning med FSAA og AF. Man anskaffer sig heller ikke SLi/Crossfire for at køre i 1280x1024 opløsning.
Jeg kan blot nævne som eksempel at en AMD 64 X2 4600+ og en Intel E6600 med 2x7900GTO i SLI yder præcis det samme i 1680x1050 med 4xFSAA og 8xAF.


(HWT; I burde snart bringe en artikel over hvordan SLI fungerer og hvor og hvornår det er til sin rette. Jeg er temmelig træt af gentagelser så det ville være lettere at linke til en artikel om det. 😳 😛 )


Claus35
 
Elitebruger
Tilføjet:
30-04-2008 08:58:41
Svar/Indlæg:
5410/123
#2 Husk, at du er meget velkommen til at lave en gæsteartikel :yes:


Goaguy
 
Elitebruger
Tilføjet:
30-04-2008 09:33:42
Svar/Indlæg:
3410/199
#1 --> Vi var faktisk tæt på at søsætte sådan et projekt, men det blev ikke til noget grundet tidspres. 😳

Mon ikke din E8500 stadig er kraftigere end denne X6800? 😉


Gripen90
 
Senior Skribent
Tilføjet:
30-04-2008 09:48:55
Svar/Indlæg:
15982/637
#4: Jo men alligevel ? X6800 ern jo OC'et - regner med mere end 1066 på fsb'en. Men det lyder bare utroligt at hvis de 2mb mere har så meget at sige.


Goaguy
 
Elitebruger
Tilføjet:
30-04-2008 14:32:22
Svar/Indlæg:
3410/199
#5 --> Den kører 11*300. Din kører jo 333*9.


hamderD
 
Elitebruger
Tilføjet:
30-04-2008 15:49:26
Svar/Indlæg:
7263/260
#6 God test, dejligt læsestof 🙂


NickKokkedal
 
Superbruger
Tilføjet:
30-04-2008 17:42:21
Svar/Indlæg:
2600/84
#2
det er nu altså ikke helt sandt.

Jeg mærkede tydelig forskel i FPS ved at gå fra 2.4 til 3.6Ghz.... og min 3dmark score steg også med 50%.

Nægter at tro det bare er fordi CPUen farmer flere FPS.


Gripen90
 
Senior Skribent
Tilføjet:
30-04-2008 18:50:51
Svar/Indlæg:
15982/637
#8: jo det er sandt... dit udgangpunkt er bare i noget helt andet. 3Dmark06 er 1280x1024 og det er klart din samlede score også stiger når CPU scoren stiger - det er logik for burhøns. Dit grafikkort er ikke nogen synderlig "flaskehals" i den opløsning. Spil i 1600x1200 med 4xFSAA og 16xAF (eller højere) så vil du se at forskellen udviskes.
Selvfølgelig vil der være stor forskel hvis du sammenligner en low-end og high-end CPU - se igen min kommentar i #2: Jeg havde en X2 4600 og 2x7900GTO i SLI, ganske vist var E6600 med 7900GTO i SLI hurtigere i 1024x768/1280x1024, men så snart man kom op i 1680x1050 med en god gang FSAA og AF ja så lå begge maskiner side om side med meget lille forskel i FPS udsving.


NickKokkedal
 
Superbruger
Tilføjet:
30-04-2008 23:37:59
Svar/Indlæg:
2600/84
#9
Nu kørte jeg lidt World in Conflict benchmarking. 3.6Ghz til venstre, og 2.4 til højre. Alle tallene er gennemsnits FPS af den indbyggede test, og da denne varierer overraskende meget, er den kørt 5 gange pr config. Fik følgende resultat.

40 32
44 32
34 31
35 29
36 28

= 37.8 = 30.4

Så et increase på lidt over 7 FPS, synes jeg da er nævnværdigt. Jeg burde teste med 4gb ram, men jeg har kun 2gb pt. Tror den er lidt spredt fordi den nogen gange har taget for meget fat i swap filen. Du har dog ret i, at det er ikke meget man får, for 50% OC på CPUen.

edit:
1280x960
4x AA
16x AF
Alt på High


Goaguy
 
Elitebruger
Tilføjet:
01-05-2008 08:13:34
Svar/Indlæg:
3410/199
#10 --> Der er ingen tvivl om, at de 1200MHz gør en stor forskel. Det betyder imidlertid ikke det samme som, at CPU'en er flaskehals!

At du med en hurtigere CPU kan få et væsentligt højere resultat er ikke det samme som, at en langsommere CPU er flaskehals.

Med "flaskehals" menes der, at CPU'en holder dig tilbage for at udnytte kortet rigtigt. Hvor den flaskehals træder ind er en definitionssag, og derfor kan det virke svært at diskutere.


Gripen90
 
Senior Skribent
Tilføjet:
01-05-2008 12:03:41
Svar/Indlæg:
15982/637
#10: Ja med høj FSAA/AF i 1280x1024(960) mindskes forskellene også, men når du er oppe i 1600x1200 med samme indstillinger er de så godt som væk 🙂 Det er derfor SLI først kommer til sin rette i disse høje opløsninger.


NickKokkedal
 
Superbruger
Tilføjet:
01-05-2008 16:57:20
Svar/Indlæg:
2600/84
#12
ye, det lagger også helt vildt hvis jeg slår crossfire fra ved de indstillinger :)