Geforce8800 preview

Diverse d.  28. oktober. 2006, skrevet af red_martians 16 Kommentarer.  Vist: 571 gange.

Der er flere spændende oplysninger deri. Et af de største mysterier er den ekstra processor. DEn er på nyere billeder noget mindre, og ifølge previewet er det ikke andet end en ekstern ramdac og dobbelt dual-link DVI-transmitter der kan aflevere en farvedybde på 30bit eller 1.073.741.824farver (ca. 1milliard) En hel del mere end de 16mio.(24bit / 24+8bit) der er normalen idag.



Grunden til at den ligger for sig selv, er for at øge billedekvaliteten, så den ikke bliver berørt af forstyrende signaler. Det er netop her at billedet bliver lavet om fra 3D til 2D, som vores skærme i langt de fleste tilfælde er.



Geforce8800 får som det tidligere er nævnt Unified Shader. Reelt betyder det er vi skal til at tænke helt anderledes end tidligere. Den tidligere kerne var specialiseret i nogle retninger, kendt som pipelines, pixelshadere, vertexshadere, textureunits osv. Den nye unified shaderstruktur tager det hele.. Så er der flest vertexhsader-beregninger vil de fylde mest i beregningerne. 128 unifiedshaders kan så udregne 128beregninger per hz, af alt muligt som man nu kan finde på at fodre den med, f.eks. shaders, pixels, fysik-beregninger osv. Geforce8800GTX vil have 128 Unified shaders og GTS kun 96.



DirectX9 er desuden simuleret, og går faktisk hen og bliver rigtig tungt, så forvent ikke de vilde resultater før vi har noget ægte DirectX10-software. Grafikkortene er udstyret med streamprocessorer, hvis opgave er at styre den unified shader, så den bliver optimalt udnyttet, derudover vil den også være den del der simulere DirectX9-opgaver.
Den sidste rigtig spændende ting de er inde på, er GigaThread. Systemmet skulle fungere meget henaf Hypertreading på Intel CPU'er, bare til grafikberegninger. Shadere skulle derudover beregnes med 1350Mhz for GTX og 1200Mhz for GTS, hvor deres normal frekvenser er 500 og 575Mhz.



Geforce8800GTS får ifølge preview 640MB 320bit ram-kredse og 8800GTX 784MB 384bit.
GTX får ganske simpelt 12stk. 64MB-blokke. Men det mystiske er at også 8800GTS har 12ram-blokke. Det vil kun kunne lade sig gøre ved at lade 4 af dem være på 32MB og de sidste 8stk på 64MB. Ved at lade de fire ramblokke arbejde serielt i to kanaler, vil man kunne få 10x32bit med 12blokke. Hvordan det bliver styret er lidt uvist, men det virker lidt ulogisk. Systemmet er dog tidligere set med bl.a. Radeon9500-serien, der både fysisk og internt kunne sammenkoble ram på den måde.

Geforce8800GTX vil skulle bruge en 30A 12V. strømforsyning(450w) , mens Geforce8800GTS kan nøjes med en 26A 12V (400watt)

Vil i læse mere kan previewet læses her:
http://www.pcshow.net/test/Testinfo.jsp?id=218270&page=1

Google oversætter for jer her:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcshow.net%2Ftest%2FTestinfo.jsp%3Fid%3D218270%26page%3D1&langpair=zh-CN%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools





Morten-[TB]-
 
Elitebruger
Tilføjet:
28-10-2006 18:26:16
Svar/Indlæg:
4310/364
Dude!! Det ser altså for lækkert ud! Jeg bliver en af de første der bestiller sådan et kort! :e


--DaxTeR--
 
Elitebruger
Tilføjet:
28-10-2006 18:44:36
Svar/Indlæg:
1089/98
30A 12V. :o
Det var sku ik så lidt :00

#1 Har du mange penge ? :e


xt0m
 
Elitebruger
Tilføjet:
28-10-2006 20:17:38
Svar/Indlæg:
2587/91
Um.. DX10 kun simuleret..? :r


MullE2
 
Superbruger
Tilføjet:
28-10-2006 21:10:53
Svar/Indlæg:
541/22
så vidt jeg kan se i nyhedden simulerer den både dx9 og dx10. Er det ikke en fejl. Så vil den jo ikke yde godt i noget :l


red_martians
 
Moderator
Tilføjet:
28-10-2006 21:32:19
Svar/Indlæg:
7881/1165
#3 og 4:.. min fejl.. er nu rettet! Det er selvfølgelig DirectX9 der er simuleret.


Illuminati
 
Elitebruger
Tilføjet:
29-10-2006 01:42:46
Svar/Indlæg:
10398/435
dx9 bliver emuleret ;)

Det som bliver "ondt" ved dx10 er at hvis ati eller nvidia vinder i ét spil, så vinder de også i alle andre..

Før kunne spil f.eks være shader intensive hvor ati ville vinde. Her har nvidia dog god "pixel-power" og kunne vinde i andre spil.. dette forsvinder med dx10 og dets unified shaders.

(hæng mig ikke op på de tekniske termer) :D


red_martians
 
Moderator
Tilføjet:
29-10-2006 09:17:16
Svar/Indlæg:
7881/1165
#6: ja måske... ;) :e ;)
Men husk lige clockfrekvenserne... en shader bliver beregnet ved 1350Mhz hvor en pixel kun beregnes ved 575Mhz...

Hvis nu et ATi beregner det hele ved 1Ghz, vil deres pixel ydelse være godt det dobbelte af nvidia, men deres shader ydelse dårligere. Så helt væk er dette pixelshader/fillrate-snask "desværre" ikke. Der er stadig massere af grund til at blive forvirret :l



Morten-[TB]-
 
Elitebruger
Tilføjet:
29-10-2006 09:44:51
Svar/Indlæg:
4310/364
#2 Ikk når jeg har købt det kort :e



DEVIL_DK
 
Elitebruger
Tilføjet:
29-10-2006 10:25:01
Svar/Indlæg:
6531/410
hvorfor 2 sli tlikoblinger på gtx udgaven

quad sli ?


#10
teko
 
Elitebruger
Tilføjet:
29-10-2006 10:26:09
Svar/Indlæg:
873/19
Fatter stadig ikke idéen i at bruge GDDR3, frygter lidt at det er erst lager forbrug, hvor de senere laver en opdateret version med GDDR4 når de har fået brugt deres GDDR3 :/


Wise
 
Elitebruger
Tilføjet:
29-10-2006 10:37:47
Svar/Indlæg:
1604/60
Lyder spændende, men kan se at mit nuværende vandkøl ikke passer på 8800 kortene, passer ellers på hele serien fra 6800 og frem..... hmm

Nå men de 1500 som nyt koster er jo alligevel småpenge i forhold til prisen på sådan en 8800 fætter ;)


#12
OEA
 
Superbruger
Tilføjet:
29-10-2006 12:01:45
Svar/Indlæg:
1711/30
#9 Det har været snakke om at det vil være ligesom ATI har gjort med CrossFire.

Det som ATI har gjort er at istedet for "mono" link og kortene kun kan snakke sammen en gang af vejen , kan de nu med "dual" link snakke sammen begge veje på en gang.


red_martians
 
Moderator
Tilføjet:
29-10-2006 12:21:06
Svar/Indlæg:
7881/1165
#10: Det handler om at spare penge. GDDR4 er dyrt pga. det er nyt. Det er GDDR3 ikke, det gør at i sidste ende bliver det billigere for dig at købe. Til gengæld giver de os så 384bit ram controler, som vil svare til at et X1950XT havde 2700Mhz GDDR4-ram. ;) Dette vil være pænt dyrt for nVidia at købe ind til.
GDDR3 forbliver længe på markedet endnu, og vil som sagt være ganske billige i forhold til GDDR4

#9: Den hjemmeside der linkes til, mener at de er til triple-SLi. Der er 3stk 16xPCI-express på de kommende nForce680-bundkort. Derfor vil man kunne koble tre sammen.. Men oversættelsen får det til at lyde, som om de ikke aner hvad de snakker om. Og samtidig vil det ikke give meget mening at GTS så ikke har det, når GTX har. Men det må tiden jo vise ;)


DTU_XaVier
 
Elitebruger
Tilføjet:
29-10-2006 12:56:45
Svar/Indlæg:
2786/120
#13 Jeg tror grunden til de tre PCI-E slots er, at (ligesom med Dual/single RAM på nForce2) hvis man vil køre single, sætter man det i det midterste slot, vil man køre SLi, sætter man i de to yderpunkter... Ikke længere brug for indstikskort eller BIOS-ændringer... Det kører bare :)...
Hvis det til gengæld virkelig ER triple-SLi, synes jeg virkelig de skulle bakse nogle ordentlige kort sammen i stedet for at lappe på dem med flere end et i en maskine :00

MVH.
Toke :)


red_martians
 
Moderator
Tilføjet:
29-10-2006 15:56:13
Svar/Indlæg:
7881/1165
#14: det er det helt sikkert ikke... ATi har allerede nu deres udgave oppe og køre. Der skal der bruges to til grafik og et tredje til fysik. Noget lignende kunne være muligt med nvidia's SLi. Jeg er da næsten 100% sikker på at de følger trop. :)


#16
E2X
 
Elitebruger
Tilføjet:
29-10-2006 16:10:15
Svar/Indlæg:
4018/217
Tror at grunden til at der er flere kondensatorer på gts end på gtx, er at der kun er et strømstik på gts kortet. Derfor vil der komme et spændingsfald, når gpu´en skal lave store beregninger, fordi at den bruger mere strøm end et strømkabel kan levere uden et stort spændingsfald.
Dette spændingsfald forhindre de med at sætte flere kondensatorer på kortet, så disse kan forsyne kortet med strøm, og derved holde spændingen oppe i de minisekunder hvor kortet bruger mere strøm end strømkablet kan levere.