Geforce8800 preview

Litteratur d.  28. oktober. 2006, skrevet af red_martians
Vist: 712 gange.

red_martians
 
Moderator
Tilføjet:
28-10-2006 17:45:09
Svar/Indlæg:
7881/1165
Kommentar til nyhed på: http://www.overclocking.dk/new...
Morten-[TB]-
 
Elitebruger
Tilføjet:
28-10-2006 18:26:16
Svar/Indlæg:
4310/364
Dude!! Det ser altså for lækkert ud! Jeg bliver en af de første der bestiller sådan et kort! :e


--DaxTeR--
 
Elitebruger
Tilføjet:
28-10-2006 18:44:36
Svar/Indlæg:
1089/98
30A 12V. :o
Det var sku ik så lidt :00

#1 Har du mange penge ? :e


xt0m
 
Elitebruger
Tilføjet:
28-10-2006 20:17:38
Svar/Indlæg:
2587/91
Um.. DX10 kun simuleret..? :r


MullE2
 
Superbruger
Tilføjet:
28-10-2006 21:10:53
Svar/Indlæg:
541/22
så vidt jeg kan se i nyhedden simulerer den både dx9 og dx10. Er det ikke en fejl. Så vil den jo ikke yde godt i noget :l


red_martians
 
Moderator
Tilføjet:
28-10-2006 21:32:19
Svar/Indlæg:
7881/1165
#3 og 4:.. min fejl.. er nu rettet! Det er selvfølgelig DirectX9 der er simuleret.


Illuminati
 
Elitebruger
Tilføjet:
29-10-2006 01:42:46
Svar/Indlæg:
10398/435
dx9 bliver emuleret ;)

Det som bliver "ondt" ved dx10 er at hvis ati eller nvidia vinder i ét spil, så vinder de også i alle andre..

Før kunne spil f.eks være shader intensive hvor ati ville vinde. Her har nvidia dog god "pixel-power" og kunne vinde i andre spil.. dette forsvinder med dx10 og dets unified shaders.

(hæng mig ikke op på de tekniske termer) :D


red_martians
 
Moderator
Tilføjet:
29-10-2006 09:17:16
Svar/Indlæg:
7881/1165
#6: ja måske... ;) :e ;)
Men husk lige clockfrekvenserne... en shader bliver beregnet ved 1350Mhz hvor en pixel kun beregnes ved 575Mhz...

Hvis nu et ATi beregner det hele ved 1Ghz, vil deres pixel ydelse være godt det dobbelte af nvidia, men deres shader ydelse dårligere. Så helt væk er dette pixelshader/fillrate-snask "desværre" ikke. Der er stadig massere af grund til at blive forvirret :l



Morten-[TB]-
 
Elitebruger
Tilføjet:
29-10-2006 09:44:51
Svar/Indlæg:
4310/364
#2 Ikk når jeg har købt det kort :e



DEVIL_DK
 
Elitebruger
Tilføjet:
29-10-2006 10:25:01
Svar/Indlæg:
6531/410
hvorfor 2 sli tlikoblinger på gtx udgaven

quad sli ?


#10
teko
 
Elitebruger
Tilføjet:
29-10-2006 10:26:09
Svar/Indlæg:
873/19
Fatter stadig ikke idéen i at bruge GDDR3, frygter lidt at det er erst lager forbrug, hvor de senere laver en opdateret version med GDDR4 når de har fået brugt deres GDDR3 :/


Wise
 
Elitebruger
Tilføjet:
29-10-2006 10:37:47
Svar/Indlæg:
1604/60
Lyder spændende, men kan se at mit nuværende vandkøl ikke passer på 8800 kortene, passer ellers på hele serien fra 6800 og frem..... hmm

Nå men de 1500 som nyt koster er jo alligevel småpenge i forhold til prisen på sådan en 8800 fætter ;)


#12
OEA
 
Superbruger
Tilføjet:
29-10-2006 12:01:45
Svar/Indlæg:
1711/30
#9 Det har været snakke om at det vil være ligesom ATI har gjort med CrossFire.

Det som ATI har gjort er at istedet for "mono" link og kortene kun kan snakke sammen en gang af vejen , kan de nu med "dual" link snakke sammen begge veje på en gang.


red_martians
 
Moderator
Tilføjet:
29-10-2006 12:21:06
Svar/Indlæg:
7881/1165
#10: Det handler om at spare penge. GDDR4 er dyrt pga. det er nyt. Det er GDDR3 ikke, det gør at i sidste ende bliver det billigere for dig at købe. Til gengæld giver de os så 384bit ram controler, som vil svare til at et X1950XT havde 2700Mhz GDDR4-ram. ;) Dette vil være pænt dyrt for nVidia at købe ind til.
GDDR3 forbliver længe på markedet endnu, og vil som sagt være ganske billige i forhold til GDDR4

#9: Den hjemmeside der linkes til, mener at de er til triple-SLi. Der er 3stk 16xPCI-express på de kommende nForce680-bundkort. Derfor vil man kunne koble tre sammen.. Men oversættelsen får det til at lyde, som om de ikke aner hvad de snakker om. Og samtidig vil det ikke give meget mening at GTS så ikke har det, når GTX har. Men det må tiden jo vise ;)


DTU_XaVier
 
Elitebruger
Tilføjet:
29-10-2006 12:56:45
Svar/Indlæg:
2786/120
#13 Jeg tror grunden til de tre PCI-E slots er, at (ligesom med Dual/single RAM på nForce2) hvis man vil køre single, sætter man det i det midterste slot, vil man køre SLi, sætter man i de to yderpunkter... Ikke længere brug for indstikskort eller BIOS-ændringer... Det kører bare :)...
Hvis det til gengæld virkelig ER triple-SLi, synes jeg virkelig de skulle bakse nogle ordentlige kort sammen i stedet for at lappe på dem med flere end et i en maskine :00

MVH.
Toke :)


red_martians
 
Moderator
Tilføjet:
29-10-2006 15:56:13
Svar/Indlæg:
7881/1165
#14: det er det helt sikkert ikke... ATi har allerede nu deres udgave oppe og køre. Der skal der bruges to til grafik og et tredje til fysik. Noget lignende kunne være muligt med nvidia's SLi. Jeg er da næsten 100% sikker på at de følger trop. :)


#16
E2X
 
Elitebruger
Tilføjet:
29-10-2006 16:10:15
Svar/Indlæg:
4018/217
Tror at grunden til at der er flere kondensatorer på gts end på gtx, er at der kun er et strømstik på gts kortet. Derfor vil der komme et spændingsfald, når gpu´en skal lave store beregninger, fordi at den bruger mere strøm end et strømkabel kan levere uden et stort spændingsfald.
Dette spændingsfald forhindre de med at sætte flere kondensatorer på kortet, så disse kan forsyne kortet med strøm, og derved holde spændingen oppe i de minisekunder hvor kortet bruger mere strøm end strømkablet kan levere.