Nvidia overrasker med hvad kunne blive et GTX595

Diverse d.  20. november. 2010, skrevet af kim_c 21 Kommentarer.  Vist: 2102 gange.

Nvidia har overasket pc verdenen med en lynhurtig lancering af GeForce GTX 580. GPU'en der endnu en gang har været i stand til at øge afstanden til ATI på single-GPU ydelses fronten, og så er der også blevet arbejdet på nogle alvorlige problemer med strømforbruget og de termiske egenskaber af den tidligere generation (GeForce GTX 480). Grundet de justeringer er det først nu, at et dobbelt-GPU design med 2 GF110 GPU'er, som GTX 580 er baseret på, ser ud til at blive en mulighed. Nvidia ser nemlig ud til at være klar med en prototype af et dobbelt-GPU kort, som de kinesiske medier refererer til som "GTX 595".

Det lækkede reference disegn af kortet (som stadig mangler nogle komponenter) afslører en hel del om at kortet er ved at tage form. For det første er det en single PCB kort, i form af at begge GPU'er sidder på samme PCB. For det andet ser det ud til at der vil være mulighed for tilslutning at op til 3 skærme ved hjælp ar de 3 DVI-udgange, hvilket formentlig indikerer, at kortet kan levere 3D Vision Surround med kun et enkelt kort. Så det eneste du skal gøre, er bare at købe tre skærme, slutte dem til de tre standard DVI udgange, og så er du klar 3D Vision Surround.


For det tredje kunne det se ud til at kortet for 3 GB video hukommelse (det vil sige 1,5 GB pr. GPU). Lige nu har kortet som det ser ud seks hukommelse chips på forsiden af printet, om der er nogen på bagsiden vides ikke da der ikke er billeder af bagsiden. På nuværende tidspunkt kan vi heller ikke kommentere på memory bussen for GPU'erne, men 115-140Gbps for hver GPU lyder ikke usandsynligt. Hvilken hastighed GPU'erne vil køre på er også ukendt. Dertil kommer det sidste vi kan konkludere ud fra billedet, er at strøforbruget formentlig bliver skyhøjt grundet det ser ud til at kortet vil få strøm fra 2 8-pin PCI-E strømstik.

kilde: enet.com.cn artiklen er blevet fjernet men dette er dog kilden.
Reverb
 
Superbruger
Tilføjet:
20-11-2010 23:41:26
Svar/Indlæg:
454/68
Hvis det kan nøjes med 2x 8pin istedet for 2x6pin + 2x8pin så er forbruget nok moderat iforht. GTX 470 SLi.


MartinRos
 
Elitebruger
Tilføjet:
20-11-2010 23:42:27
Svar/Indlæg:
3907/73
Ser spændende ud.

Nu må vi se hvornår det bliver til noget.


7913
 
Elitebruger
Tilføjet:
21-11-2010 00:07:06
Svar/Indlæg:
1124/68
Ville ikke være dårligt hvis de snart kom med noget der sparkede røv ;)


Gripen90
 
Senior Skribent
Tilføjet:
21-11-2010 00:14:17
Svar/Indlæg:
15982/637
Synes nu GTX 580 sparker rimelig godt allerede. Bare de fokuserer på gode pålidelige drivere.


Fearless
 
Elitebruger
Tilføjet:
21-11-2010 03:11:01
Svar/Indlæg:
4536/104
Et dual GTX470 med lidt bedrer ydelse og lavere watt forbrug/varme udvikling, ville nok også være ret så nice og sikkert kunne slå et HD5970 i ydelses ræset.



eviling
 
Overclocker
Tilføjet:
21-11-2010 10:51:35
Svar/Indlæg:
442/14
At starte en artikel med:
"og så er der også blevet arbejdet på nogle alvorlige problemer med strømforbruget og de termiske egenskaber af den tidligere generation".

For så at afslutte med:
"Dertil kommer det sidste vi kan konkludere ud fra billedet, er at strøforbruget formentlig bliver skyhøjt grundet det ser ud til at kortet vil få strøm fra 2 8-pin PCI-E strømstik. "

Det er da lidt af en modsætning. Medmindre du mener at de bevist har forsøgt at øge strømforbruget...det jo er Nvidia...


kasper
 
Superbruger
Tilføjet:
21-11-2010 11:05:23
Svar/Indlæg:
43/4
#6 Læs lige igen så du forstår det.

Det er fra 480 gtx til 580 gtx (eller GF100 til GF110) der er lavet forbedringer i strømforbruget og køling.

"Dertil kommer det sidste vi kan konkludere ud fra billedet, er at strøforbruget formentlig bliver skyhøjt grundet det ser ud til at kortet vil få strøm fra 2 8-pin PCI-E strømstik. "

Er en kommentar til det nye kort der kommer


eviling
 
Overclocker
Tilføjet:
21-11-2010 11:21:32
Svar/Indlæg:
442/14
#7 Hvis det skal læses på den måde kan jeg godt se det.

Men, forskellen på 480 og 580 er mig bekendt kun 6W og 7 grader C. Tæller det som en forbedring? 😕


mikam
 
Superbruger
Tilføjet:
21-11-2010 11:25:44
Svar/Indlæg:
873/25
Som også nogle er inde på i diverse fora på nettet, så bliver der jo ikke tale om 2x 580, da TDP skal holdes på max 300W. Så snarere noget med 2 x det 560, der kommer senere. Altså 295/260 gtx om igen 🙂


kasper
 
Superbruger
Tilføjet:
21-11-2010 12:03:15
Svar/Indlæg:
43/4
#8

GTX 580 er bedre på alle måder (over 480). Det bruger omkring 30 watt mindre, er 10-30% hurtigere. Bare det at det bruger mindre energi og samtidig er hurtigere er et kæmpe skridt i den rigtige retning.

Det er også lige 10 dbA under gtx 480, ca samme niveau som et hd 4850. Det kører ikke så meget koldere, pga. der er skruet ned for blæserne, men for mig er det vigtigere at kortet er stille og 85 grader (eller hvor varmt det nu bliver), fremfor 70 grader og samme larm som gtx 480


ToFFo
 
Overclocker
Tilføjet:
21-11-2010 15:22:25
Svar/Indlæg:
46/2
Nvidia må da snart komme med et enkelt kort der kan slå 5970. Synes sgu AMD har været foran længe mht. til det.

Også selvom det er Dual GPU. Det er stadig 1 kort.

Kom så Nvidia. Lav noget der kan udkonkurrere ASUS Ares :)


MartinRos
 
Elitebruger
Tilføjet:
21-11-2010 15:24:02
Svar/Indlæg:
3907/73
#11

Enig, men tror at når kortet så kommer så bliver det også ufattelig godt ydende i forhold til hvad vi ellers har set på markedet.


Gripen90
 
Senior Skribent
Tilføjet:
21-11-2010 15:27:21
Svar/Indlæg:
15982/637
#11. Der har ikke været nogen enkelt kort der bare lige har slået et dual gpu før der er gået en rum tid. Eneste større undtagelse var med GF7950GX2 vs 8800GTX.


M.Thomsen
 
Elitebruger
Tilføjet:
21-11-2010 17:54:06
Svar/Indlæg:
4112/53
#9 Du glemmer PCI-E porten også, så det er 375W de kan komme op på.
Hov, nu bliver jeg helt i tvivl, om det er 75 eller 150W der må trækkes ud af soklen. Kan huske det var 75W før 2.0, men kan ikke huske med PCI-E 2.0


mikam
 
Superbruger
Tilføjet:
21-11-2010 19:45:58
Svar/Indlæg:
873/25
#14
Jo, men det er jo teori, der skal nogle radikale ændringer i køleløsningerne til, hvis man bevidst skal overskride de 300W. Bevidst siger jeg, for nogle gange kan man IRL godt komme højere, men det er så især i Furmark, som jo er en syntetisk test.


drcasino
 
Superbruger
Tilføjet:
22-11-2010 12:00:16
Svar/Indlæg:
374/32
Hvilken forbrugersoftware er det lige, der skal drage nytte af noget, der får min 520w corsair psu til at føle sig som en zitech 120w til en pentium 100?

Givet - folding, cuda-soft und so weiter bliver rigtig glade for kraften, men wtf? Hvad med at vi fik et par generationer drivers, der magtede at køre Fermien ud til fingerspidserne and beyond? Har endnu ikke set mit gtx460 blive presset i andet end gaming og benching. Lad os få låst op for cuda-begrænsningerne istedet for at nakke asiens ferskvandsfisk fordi vi har for mange penge!


Fearless
 
Elitebruger
Tilføjet:
22-11-2010 14:25:55
Svar/Indlæg:
4536/104
#16 ROFL...

hahaha.. god point. 😛

#13 men husk på at 8800 serien nok også har været en af nvidias største succeser i nyere tid, ydelses messigt var både G92 og G80 jo super da de udkom. 😉

forskellen var til sammenligning ret lille mellem deres GF6xxx og GF7xxx og fra GF8xxx til GF9xxx var det jo heller ikke noget at prale af, samme gælder imo også fra GF9xxx til GF2xx , deres GF2xx serie var ganske vist en go sjat hurtigere men stadig ikke noget at råbe hurra for til sammenligning mellem 7xxx og 8xxx series. 🙂


Svaret blev redigeret 1 gang, sidst af Fearless Angel d. 22-11-2010 14:28:13.


ToFFo
 
Overclocker
Tilføjet:
22-11-2010 15:24:25
Svar/Indlæg:
46/2
#13 - Tror du misforstår mig. Jeg mente at Nvidia ikke har haft deres eget Dual GPU kort i lang tid. Ikke siden GTX295. Og det er jo ved at være et gammelt kort.

Da AMD kom med 5970, regnede jeg sådan set med Nvidia også var på vej med et Dual GPU kort der kunne sparke 5970 af 1. pladsen.


Gripen90
 
Senior Skribent
Tilføjet:
22-11-2010 15:55:10
Svar/Indlæg:
15982/637
#17: GTX 280 var ganske tæt på GF9800GX2 og overgik jo også denne i 1920x1200 med høj FSAA/AF pga de 1GB ram. 🙂

#18: Ah jo på den led 🙂 der tror jeg mere at nVidia koncentrerede sig om at gøre GTX 580 til hvad GTX 480 skulle have været inden de kiggede på en retail dual gpu løsning 🙂


ToFFo
 
Overclocker
Tilføjet:
22-11-2010 19:45:31
Svar/Indlæg:
46/2
#19 - Yeah de var måske lidt for hurtigt ude med løfterne da de lancerede GTX480. Men det er godt at se de er vendt stærkt tilbage :)


martinbg
 
Elitebruger
Tilføjet:
22-11-2010 20:49:28
Svar/Indlæg:
2076/119
#20

Hvad regner du med? de siger hver gang vi har det bedste, uden at kigge over på rød bane halvdel og se hvad der sker ;)