nVidia GT300 fremvist

Diverse d.  01. oktober. 2009, skrevet af Emillos 35 Kommentarer.  Vist: 1584 gange.

Nvidia har netop fremvist det længe ventede GT300, som bliver modspillet til AMD/ATi's spritnye Radeon HD5870.
Det er endnu ikke alverdens specifikationer, der er afsløret; ting såsom strømforbrug og taktfrekvens mangler endnu, hvilket dog formentlig skyldes, at firmaet endnu ikke har fastlagt disse endnu - men her kommer specifikationerne i hvert fald.



Firmaets nye vidunderbarn, GT300-GPU'en, skulle have hele 512 streamprocessore(kaldet CUDA-kerner af nVidia), et hukommelsesinterface på 384bit, og chippen skulle indeholde hele 3 millioner transistorer! Til sammenligning har GT200b(GPU'en fra GTX285) blot 240 streamprocessore og et transistorantal på 1,4 millioner. Tallene betyder med andre ord, at vi i første kvartal af 2010, potentielt kan forvente et grafikkort der er dobbelt så hurtigt som GeForce GTX285(såfremt taktfrekvenserne ligger i omegnen af GTX285's).

Værd at bemærke er endvidere, at nVidia i endnu højere grad end tidligere, fokuserer på GPGPU-aspektet - og GT300 vil da også understøtte både C++ og OpenCL.


Der er altså ingen tvivl om, at AMD/ATi får kamp til deres hår, når GTX300 lanceres. Dog har det grøn/røde hold allerede HD5870X2 i støbeskeen, med 2 RV870-GPU'er, som bliver et kort, der bliver særdeles voldsomt kort der er svært at konkurrere med. Især hvis nVidias GT300-baserede dobbelt-GPU kort har lange udsigter, hvilket det umiddelbart tyder på, grundet GT300's størrelse og kompleksitet; lidt som vi så det, med GTX280 kontra GTX295.

Da Fudzilla spurgte nVidia hvorfor GT300 er så forsinket, svarede de: "Fordi det er fucking svært, at designe denne GPU".
Af samme grund vil rampelyset altså tilhøre Radeon HD5870, og inden længe Radeon HD5870X2, i de næste 3-4 måneder. Uanset hvor meget nVidia lancerer på papiret indtil engang i første kvartal 2010.


Kilder:
http://anandtech.com/video/showdoc.aspx?i=3651
http://www.fudzilla.com/content/view/15758/34/
http://www.fudzilla.com/content/view/15762/34/
http://www.fudzilla.com/content/view/15757/34/
1EaR
 
Elitebruger
Tilføjet:
01-10-2009 10:50:15
Svar/Indlæg:
5750/124
newz har også skrevet om det, http://newz.dk/nvidia-letter-p... , men den ligner dog meget det som Emil så ganske godt har skrevet 🤡

Men det lyder vildt, men lad os nu se om det også har kræfterne til det (FLOPS), når det nu er ved at være der at de går til angreb 😛


Galvatron
 
Elitebruger
Tilføjet:
01-10-2009 10:59:02
Svar/Indlæg:
650/57
Om ATI har rampelyset i 3-4mdr. er jo fuldstændigt ligegyldigt hvis nVidias single GPU allerede udmanøvrerer HD5870 herefter.
Dual GPU kortene er da fine, men jeg har svært ved at forstå de lige pludselig skal være en markeds nødvendighed. 7900GX2 og 7950GX2 blev jo mere el. mindre ignoreret - det var jo egentlig kun 9800GX2 og HD3870x2 der fik 15min of fame. Fokus burde mest være på single GPU ydelsen og få den presset så meget som muligt.
Just my thoughts...


Svaret blev redigeret 1 gang, sidst af Galvatron d. 01-10-2009 10:59:59.


Gom
 
Superbruger
Tilføjet:
01-10-2009 11:49:42
Svar/Indlæg:
359/73
#2 Af hvad? 4870X2 lammetævede nVidia og tvang dem til at udgive GTX 295 til at konkurrere med det. Det slog det så også, men indtil da leverede AMD et dual-GPU kort til samme penge som nVidias dyreste single-GPU kort men som leverede langt bedre performance. Derfor håber jeg også at nVidia denne gang har lært lektien og kan få udgivet et dual-GPU kort med det samme så os der vil have den bedste af den bedste performance (læs: 30" brugere) kan få det uden at skulle være henvist til AMDs nogengange lidt sløje CrossFire...


kbr100
 
Superbruger
Tilføjet:
01-10-2009 11:55:47
Svar/Indlæg:
313/103
Når GT300 bliver lanceret kommer AMD vel med 5890 eller lignende. Lige nu ser det ud til at AMD er et halvt skridt foran, eller hvad syntes I?


gabbadoo
 
Elitebruger
Tilføjet:
01-10-2009 12:03:04
Svar/Indlæg:
3065/208
Det ville være mærkeligt hvis ikke nVidia klippede lidt i GT300 og lavede en X2 udgave? Og hvorfor 384-bit ram-controller... skifter nVidia til DDR5? Ja, det gør de vel.

NVidia's single-core grafikkort baseret på GT300 vil sikkert nemt slå AMD's 5870. At nVidia er bedre til at udnytte dual-core grafik (SLI) berettiger næsten prisen overfor ATI - og det ved nVidia godt.

Hypen der skabes alene ved at være #1 - overskygger pris/ydelse væsentligt - men konkurrencen på markedet er jo fremragende... de leverer jo det tunge skyts IGEN... nvidia gik fra 128 shaders på 8800 serien til 240 shaders på GTX280 serien - og nu - 500 shaders på GT300... og AMD svarer fint igen.


Mathis77
 
Elitebruger
Tilføjet:
01-10-2009 12:13:54
Svar/Indlæg:
6293/359
jeg glæder mig til Larrabee - er lidt træt af monstergrafikkort og deres varmeudvikling og strømforbrug samt ågepriser.

Jeg glædede mig allerede for 2 år siden.
Nu er det tæt på 2010. ❤


gabbadoo
 
Elitebruger
Tilføjet:
01-10-2009 12:17:42
Svar/Indlæg:
3065/208
#6 nørd! 😀


Retro
 
Elitebruger
Tilføjet:
01-10-2009 12:19:08
Svar/Indlæg:
1643/172
#3 Du kan læse om hvad Nvidia har lært af RV770 serien i anandtech artiklen side 7, som jeg selv syndes var ganske spændene læse stof 😉

Men hvorfor er der ikke noget link til Nvidia's egen info/hjemmeside om Fermi?

Link 1:
http://www.nvidia.com/object/f...

Link 2:
http://www.nvidia.com/fermi


Svaret blev redigeret 1 gang, sidst af Retro d. 01-10-2009 12:19:27.


Mathis77
 
Elitebruger
Tilføjet:
01-10-2009 12:24:51
Svar/Indlæg:
6293/359
#6 nej - fremtidsforsker nærmere 😀


Gripen90
 
Senior Skribent
Tilføjet:
01-10-2009 12:27:05
Svar/Indlæg:
15982/637
#3: Læs nu hvad #2 faktisk skriver. Han nævner intet om ydelse mv. men rent koncept mæssigt om dual GPU. Det var primært 9800GX2 og HD3870x2 der "pionerede" dual gpu designet frem.

Svaret blev redigeret 2 gange, sidst af Gripen90 d. 01-10-2009 12:29:12.


Lenze
 
Elitebruger
Tilføjet:
01-10-2009 12:37:42
Svar/Indlæg:
1003/92
At mene at Nvidia er et halvt skridt foran er da helt til hest ?

AMD er da til dato overlegen Nvidia med 4870GX2
At nvidia så kommer med en "luftfrikadelle" om noget vi kan vente når de engang har fået designet det færdigt, er da som at pisse i bukserne.... det giver varme i et kort øjeblik og derefter......

hvor mange 5800 serier bliver der ikke langet over disken inden Nvidia får nosset sig sammen til at launche en konkurrent ?

NVIDIA.... DET ER EN OMMER! i falder formentlig længere og længere bagud ! :no:


Svaret blev redigeret 3 gange, sidst af Lenze d. 01-10-2009 12:41:54.


Shutdown
 
Elitebruger
Tilføjet:
01-10-2009 13:24:14
Svar/Indlæg:
8947/160
Jeg syntes ikke man kan sige at Nvidia og sli er bedre end atis crossfire. Teknologierne er meget lige i min bog, og lige god understøttelse i spil.!!


Kasseren
 
Elitebruger
Tilføjet:
01-10-2009 13:35:24
Svar/Indlæg:
1814/48
Hvis nVidia virkelig tror at fremtiden ligger i GPGPU beregninger, så har de helt klart et problem at løse med deres GT300.

Selv hvis Intels Larrabee, der har GPGPU beregninger som sin største styrke, skulle fejle har konkurrenten ATis grafikkort i flere generationer kunnet prale af at have omkring 20% mere beregningskraft end de nVidia kort de har konkurreret med.

Det eneste trumfkort nVidia har i GPGPU arenaen er at de ejer CUDA. Det trumfkort kan dog kun bruges indtil at standarderne OpenCL og DirectCompute slår igennem, hvor slagmarken bliver mere lige og konkurrenternes højere beregningskraft vil kunne mærkes.

Personligt vil jeg sige at ATi er de der står bedst rustet, mindst indtil at Larrabee viser sig.


#14
BPM
 
Senior Skribent
Tilføjet:
01-10-2009 13:37:20
Svar/Indlæg:
223/2
#11 godt formuleret :)

men jeg skal aldrig have et ATi kort :) jeg holder mig stærkt til Nvidia, så jeg venter spændt på GT300


#15
Gom
 
Superbruger
Tilføjet:
01-10-2009 13:50:27
Svar/Indlæg:
359/73
#12 Forskellen er at nVidia er meget hurtigere til at tilføje SLI understøttelse til nye spil - senest med de såkaldte SLI patches. Det har slvf også meget at gøre med deres TWIMTBP-program. Med AMD kort er det generelt sådan at man skal vente en måned fra en ny top-titel kommer til der kommer ordentlig CrossFire support. Var noget jeg led meget under da jeg havde 4870X2. Og det er bare ikke fedt når man har købt et kort der er top of the pops, og kan se hvordan nVidia bare smider en SLI profil ud separat eller kommer med en betadriver der både tilfører SLI og hastighedsoptimeringer til en ny titel. Derfor håber jeg på et dual-chip GT300 i en helvedes fart.


Gripen90
 
Senior Skribent
Tilføjet:
01-10-2009 13:52:15
Svar/Indlæg:
15982/637
#11: Synes nu slet ikke det er korrekt. nVidia prøver at gå en anden vej og at det tager tid og kan volde problemer er da forståeligt. Selvfølgelig vil de tabe nogle andele på high-end markedet nu hvor HD5800 kommer - men hvor tit ser vi ikke det ske uanset hvem der kommer først med nyt kort.

Forestil dig at nVidia's mid-high-end chip kommer til at ligge så tæt på HD5870 i ydelse men er prissat omkring 1800kr segmentet netop som HD5850 er nu - det betyder at AMD/ATi enten får problemer med at sælge HD5870 til 2500-2600kr eller også skal der ske et gevaldigt prisfald på HD5870, hvilket så vil betyde et tab i forbindelse med produktions omkostningerne for kortene. HD5850 vil falde endnu mere og vil heller ikke give så mange penge i kassen, men til glæde for forbrugerne.
Hvis nvidia's high-end single GPU kort bliver noget kvikkere end HD5870, så har nVidia næsten frit spil med prissætningen da det f.eks vil være det bedste kort ml. 2500-3000kr klassen. Man kan så vente på HD5870x2 og håbe på en prissætning omkring de 3000kr for at "udmanøvrere" nVidia's single gpu highend kort, og så vinde andele ind på high-end segmentet selv om det ikke er der de store penge ligger - de ligger i 1000-1500kr klassen.

Altså alt i alt så er det jo skruen uden ende og venten på hvad der så kommer.
Så alt i alt så kan jeg ikke rigtig se pointen i sådan en debat - been there done that. Bliver den en failure for nVidia jamen så er det jo FX-fadæsen om igen, og så er det at vente på de rejser sig igen.

Begge firmaer ligger jo godt solidt og plantet i jorden, og på trods af noget modgang tror jeg næppe (håber ikke) at nogen af dem drejer nøglen om forløbigt.


MadsH
 
Elitebruger
Tilføjet:
01-10-2009 13:55:57
Svar/Indlæg:
1915/57
Lidt mere detaljerede oplysninger her http://www.hardwareonline.dk/n...

GT300=1.5TFLOPS 5870=2.7TFLOPS


Shutdown
 
Elitebruger
Tilføjet:
01-10-2009 14:06:31
Svar/Indlæg:
8947/160
16# Nej for guds skyld, vi vil IKKE have et scenarie hvor enten ATI eller Nvidia "vinder". Så bliver det jo ALT for dyrt at være "os". 😉


Gripen90
 
Senior Skribent
Tilføjet:
01-10-2009 14:09:19
Svar/Indlæg:
15982/637
#17: Tja ikke så meget nyt der. AMD havde jo også højere TFlops med HD48xx, men som der også antydes i artiklen, så er det ikke der kampen bliver afgjort.

Trods eventen er rettet mod udviklere, og ikke Geforce gamere, er budskabet fra NVIDIA ikke til at tage fejl af: Fermi skal først og fremmest slå til på de nye vækstmarkeder og udbrede GPU'ens arbejdsopgaver som direkte konkurrent til CPU'en, hvorimod spil er en arbejdsopgave NVIDIA betragter som fuldendt.

Yderligere er det jo ret fedt, at de har fået physX kalkulationerne optimeret mv, det kan jo komme til at betyde, at gamere måske kan aktivere PhysX med minimalt ydelses tab.

#18: Nej - monopol på gfx fronten vil være en katastrofe... det var en svær nok kamel at sluge da 3Dfx takkede af.


Svaret blev redigeret 3 gange, sidst af Gripen90 d. 01-10-2009 14:15:12.


Michael1991
 
Overclocker
Tilføjet:
01-10-2009 14:12:49
Svar/Indlæg:
300/28
Jeg holder mig nu også til Nvidia:)


Fearless
 
Elitebruger
Tilføjet:
01-10-2009 15:02:12
Svar/Indlæg:
4536/104
Jeg er ikke mærkedyr på nogen måde, og syntes eneligt at det er skørt at være det, har haft både ati og nvidia kort gennem tiderne, men med de her specs ser det dog ud til at jeg blir ATI kunde lidt i nu, med mindre div tests kommer til at vise noget andet når GT300 topmoddellerne udkommer.

dog klør det gevaldigt i fingrende for at få sig et HD5000 kort.. 😛

men tja, det går jo altid op og ned for div firma´er ATI var klart best med ATI 9000 serien mod Nvidias FX serie, men Nvidia har imo haft de stærkeste kort med 6000 + 7000 + 8000 serien, hvor man så ka sige at det er mere 50/50 med HD4800 series og GTS/GTX200 series, med lidt heldning til nvidia godt nok, men der redder pris sætningen så ATI gevaldigt imo.

husker stadig tilbage da Geforce 7 serien rulede , og jordede stort set alt andet på markedet da de kom ud.

må så dog indrømme at jeg ser det som spild at købe et gfx med udgangspungt i psy X eller cuda, prisen og den rå gaming ydelse bør være hvad man ser på med mindre man er millionær. 😛


Svaret blev redigeret 1 gang, sidst af Fearless Angel d. 01-10-2009 15:04:24.


Lenze
 
Elitebruger
Tilføjet:
01-10-2009 15:14:01
Svar/Indlæg:
1003/92
ATI´s X1900XTX var nu også et lækkert kort dengang...

Men som #21 siger er det åndsvagt at være farvet og kun købe det ene mærke.

Har haft mange.. både ATI og Nvidia kort, men jeg må indrømme at på det sidste har det været ATI der har stået bedst i min verden.

Lige hvad jeg kan huske at jeg har haft af kort:

De gode gamle: Voodoo, Voodoo II, Savage4.

Nvidia: 6600GT, 8500GT, 8600GT, 8800GTS-512, 7950X2

ATI, radion 9000, x600, x1600xtx, x1900xtx, 2x HD3850 cross, 2x HD3870 cross, HD4870

Plus en masse andre... det er jo svært at huske det skidt 😛


Svaret blev redigeret 2 gange, sidst af Lenze d. 01-10-2009 15:15:10.


Gripen90
 
Senior Skribent
Tilføjet:
01-10-2009 15:40:55
Svar/Indlæg:
15982/637
#22: Ah det kan jeg nu godt huske 😛
http://hwt.dk/forumthread.aspx...


Retro
 
Elitebruger
Tilføjet:
01-10-2009 17:37:11
Svar/Indlæg:
1643/172
#16 Du tager helt fejl ved at AMD vil tabe penge på deres 5870 i forhold til hvis Nvidia lavede deres kort 1000 kr billiger end deres. Faktisk ville Nvidia lide store tab på det. Da deres kerne fylder 467mm ca samme størrelse, som G80, hvor ATI's RV870 fylder 334mm. Faktisk kan ATI lave flere RV870 kerner pr waffa end Nvidia kan og derved er deres produktion billiger end hvad Nvidia pumper ud med på Fermi. Nvidia har altid elskede store chips. ATI er gået fra at elske store chips til at syndes at en lille performens chip er vejen frem for dem. Deres ide for at opnå en stor chips performens er at smide 2 mindre chips på et kort i form af dere x2 serie. Det virker og man bruger mindre penge på at udvikle en lille chip der yder fint i forhold til en stor chip der skal kunne alt. Jo mere en chip skal kunne jo mere komplex bliver den jo.

Ud fra dette påstår jeg at Fermi vil koste 399 til 599 US $ da den er så dyr at lave. ATI malker bare marked i mens de kan, men de har masser af overskud til at sænke prisen på deres 5850 / 5870 serie uden at tabe penge. Deres overskud pr kort bliver mindre, men i takt med at kortene bliver billiger så sælger man også flere, men lige PT lider ATI af det problem at de ikke kan lave nok af disse kort og derfor vælger man at få max pris ud af hvert et kort man sælger. Sener hen vil produktionen havde været optimeret og forbedret til at de kan følge med efterspørgelsen og på de tidspunkt vil de havde bedst mulighed for at sænke prisen og stadig havde en fin indtjening.


Svaret blev redigeret 1 gang, sidst af Retro d. 01-10-2009 17:37:51.


#25
1EaR
 
Elitebruger
Tilføjet:
01-10-2009 18:21:49
Svar/Indlæg:
5750/124
#24 + det passer sammen med at de tjener de penge de kan, da de sætter prisen kontra Nvidia's nuværende modspil 😉 Men du har ret, ATI designer deres single chip til 299-399$ MSRP, i stedet for 599$ MSRP :yes:


riska
 
Elitebruger
Tilføjet:
01-10-2009 20:55:12
Svar/Indlæg:
7241/274
De billeder af det kort er fake det er ikke et rigtigt kort...
læs her og se alle de nye closeup shots af kortet

Fake Fake..

http://www.xtremesystems.org/f...


Gripen90
 
Senior Skribent
Tilføjet:
01-10-2009 22:13:52
Svar/Indlæg:
15982/637
#24: Fair nok, men sådan tror jeg bare ikke det sker i det store sammenhæng.


Mads321
 
Elitebruger
Tilføjet:
02-10-2009 15:14:14
Svar/Indlæg:
3162/326
Tror det er gået de fleste forbi, at Fermi ikke er Nvidia's nye top gaming grafikkort. Det er et Tesla grafikkort, der er beregnet til store såkaldte "supercomputere". Fermi kan f.eks fåes med op til 6 GB GDDR5 RAM - det vil aldrig i livet kunne udnyttes af et spil 😛

Det vi kan bruge den her nyhed til, set med gaming-brillerne på, er at Nvidia's kommende GT300 chip (som vil blive brugt på gaming-udgaverne også), har de ca. 3 milliader transistorere (HD5870 har ca. 2.15 mia.).

I ren rå-ydelse vil der altså være mere juice i et potentielt GTX 380 ift. HD 5870 eller HD 5890. Spekulationer går endda på at gaming-kortene med GT300 vil få 512-bit bus i stedet for 384-bit bus som Fermi har.

Men ATi får nok HD 5870X2 på gaden inden Nvidia får GTX 380 ud. Og timing betyder rigitg meget i denne branche.

Evt. mere her: http://hardwareblog.dk/2009/10...


Mvh. Mads 🙂


Svaret blev redigeret 3 gange, sidst af Mads321 d. 02-10-2009 15:57:45.


MadsH
 
Elitebruger
Tilføjet:
02-10-2009 16:03:48
Svar/Indlæg:
1915/57
Med 3 millioner transistorer vil den få en ydelse på 1.5 TFLOP og hd5870 har en RÅ(for at bruge dit udtryk:)) beregningsydelse på 2.7 Tflop så jeg ved ikke om der vil være mere RÅ ydelse idet. Om det så vil vise sig i spil er ikke sikkert 🙂

Tilgængæld bliver det et voldsomt kort på RAM ydelsen hvis det kommer med 512 bit ram kredse


Svaret blev redigeret 1 gang, sidst af MadsH d. 02-10-2009 16:05:56.


Mads321
 
Elitebruger
Tilføjet:
03-10-2009 02:17:33
Svar/Indlæg:
3162/326
#29

Hvor har du de tal fra? Det virker mig noget bagvendt at man tilsyneladende kun kan få lige omkring halv regnekraft (i Teraflop), ud af en chip med ca. en 3.-del flere transistorere og en større hukommelsesbus...


ShArX
 
Superbruger
Tilføjet:
03-10-2009 04:14:52
Svar/Indlæg:
664/68
btw bliver bussen kun 384 bit DDR5.


TaKemE
 
Overclocker
Tilføjet:
03-10-2009 04:39:14
Svar/Indlæg:
121/1
Nvidia siger at Fermi er bedre en HD5870 i spil, men jeg tror det får en noget højere pris.

""NVIDIA's Fermi takes direct aim at supercomputing, Intel
NVIDIA's Fermi reveal shows clearly that the company is pursuing a two-pronged approach to staying alive: at the high-end, target supercomputing, and at the low-end, target mobile and embedded. This might eventually leave PC gaming in the hands of AMD and Intel, but with the state that market's in, they can have it."" 😕

http://arstechnica.com/hardwar...


MadsH
 
Elitebruger
Tilføjet:
03-10-2009 08:26:53
Svar/Indlæg:
1915/57
#30 taget fra HOL

I en NVIDIA distribueret præsentation af Fermi forventer Nathan Brookwood, analytiker hos Insight64, at de 512 shader kerner får en frekvens omkring 1,5 GHz, hvilket svarer nogenlunde til de eksisterende Geforce modeller. Det giver den et råt output på 1.5 teraFLOPS, og altså fortsat en del under AMD's mere simple enheder i Radeon HD 5870, som kan præstere hele 2,7 teraFLOPS


Nightcover
 
Overclocker
Tilføjet:
03-10-2009 12:14:38
Svar/Indlæg:
620/11
#33

med nu har GTX 280 også mindre flops end HD4870 og vi ved jo begge godt hvilket der performer bedst.

---

Det er et Tesla kort. Den som Jen-Hsun Huang fremviste og som er blevet taget billeder af er ikke et fungerende kort. Men der findes fungerende kort.

Til jer som er interesseret i dette kort, burde i se hans opening keynote. Den kan ses på nvidias hjemmeside:
http://www.nvidia.com/object/g...

Se denne:
Wednesday 9/30
1:00 PM PT

Opening Keynote with Jen-Hsun Huang


Det er meget spændende.


Svaret blev redigeret 2 gange, sidst af Nightcover d. 03-10-2009 12:18:02.


MadsH
 
Elitebruger
Tilføjet:
05-10-2009 20:58:28
Svar/Indlæg:
1915/57
#34 se hvad jeg skrev i #29