Innovation/Teknologi
GeForce GTX295 er på mange måder en nyskabelse; og så alligevel ikke.
Da nVidia ikke har kunnet vinde over konkurrenten, med deres strategi om, at have den hurtigste GPU, har nVidia altså være nødsaget til, at lave en sen sandwich. Realiteten er altså, at 2 GPU'er er et must for at vinde tronen. Det var dog ikke bare sådan-lige, at lave et dobbelt-GPU grafikkort, da GT200-chippen, kendt fra GTX280, simpelthen var for varm og dyr til, at kunne bruges.
Størrelse på GT200 vs. GT200b
Men nVidia har nu formået, at producere en ny version af chippen, den såkaldte GT200b, der er produceret med større densitet/transistortæthed, fra GT200's 65 nanometer, til 55 nanometer. Firmaet har øvet sig på den forbedrede produktionsteknologi, på 55nm-versionen af G92-chippen, der sidder på GeForce 9800+, som altså nu er moden nok til, at kunne producere highend også.
Specifikationsmæssigt, er GT200b-chippen på GTX295, meget lig den GT200 vi finder på GTX280. Der er stadigvæk 240 shaderenheder og 28 teksturenheder. Hvor GTX280 tilbyder 512bit rambus, tilbyder GTX295 dog "kun" 448bit, hvilket betyder, at rammængden bliver lidt "skæv". Der er 1792Mb hukommelse på kortet, hvilket dog blot rent praktisk fungerer som 896Mb, da hver GPU skal have samme informationer lagret. Grunden til den mindre rambus, skyldes dels, at den fysisk mindre GT200b-chip, er svær at implementere en bred bus på. Dels giver en mindre bus også et billigere printdesign.
Frekvensmæssigt, er GPU clock på GTX295 på 576MHz, mens Shaderne kører 1242MHz, og GDDR3-rammene 999MHz. Dette er lidt langsommere end vi kender det fra GTX280, hvor GPU kører 602MHz, Shaderne 1296MHz og rammene 1107MHz. Chipsene er altså langsommere, end på det lidt ældre highend-grafikkort; men nu er der jo også hele 2 af slagsen. Ydelsen ligger ifølge nVidia over konkurrentens Radeon HD 4870X2, dog meget vekslende i difference; mere herom i test-afsnittet.
nVidia's egne resultater
Den større transistordensitet, sammenholdt med en lavere clockfrekvens, bidrager naturligvis til et lavere strømforbrug for GT200b-chippen, i forhold til GT200 - samt lavere produktionsomkostninger. Men da der er hele 2 af slagsen på GTX295, er strømforbruget naturligvis ikke så lavt endda. NVidia selv har opgivet strømforbruget til værende 289Watt, der sammenholdt med det enkelt-GPU'ede GTX280's 236Watt, ikke er så slemt endda.
HWT's egne resultater
Vores egne målinger vist på grafen, bekræfter forskellen på omkring 50W, når tabet i systemets strømforsyning taget i betragtning. Vi har desværre ikke et standard Radeon HD4870X2 med; men det overclockede Rampage700 GS GLH, bruger væsentligt mere strøm. Det er ret imponerende, hvor meget krymningen af GT200-chippen, har hjulpet på strømforbruget. Især når kortet ikke belastes, imponerer GTX295: 264Watt for det samlede system, er ekstremt flot, og ikke højere end et enkelt-GPU Radeon HD4870. Og væsentligt lavere end HD4870X2.
Udover at sætte frekvenser og strømtilførsel ned, som vi kan se på vores overvågningsgraf under 3dmark, hvor frekvenserne er helt i bund i CPU-testen - kan GT200b nemlig lukke helt ned, for dele af chippen, når den ikke presses. Her kunne AMD/ATi, der ellers tidligere var forgangsmænd på området, lære noget af nVidia.
Gamle kendinger som CUDA og PhysX, er der naturligvis fortsat understøttelse for, og ikke mindst focus på. Der er altså fortsat mulighed for, at køre fysik over grafikkortet, i PhysX-supporterende spil. Og med CUDA, kan man blandt andet konvertere video over 4 gange hurtigere, end det tager for en almindelig CPU, hvor typisk kun en enkelt processor-kerne udnyttes.
Som noget nyt, har nVidia også lanceret "3D-briller", så man kan få en "dybere" oplevelse med spil. På HWT har vi sidste år prøvet brillerne i Unreal Tournement, samt et lille demonstrationsprogram - og kan dermed sige, at det ikke ser helt ringe ud. Brillerne er dog endnu ikke set i Europa.
Alt i alt ligner nVidias nyskabelse en vinder - men samtidig også et produkt, der burde være lanceret for måneder siden, konkurrentens HD4870X2 taget i betragtning. Men hey - bedre sent end aldrig!