Generelt om nVidia GeForce GTX260
(Nedenstående er en tilpasset udgave af Red_Martians afsnit om GTX280)
Geforce GTX260 er teknologisk set ikke nogen specielt revolutionerende chip. Det vi reelt ser, er en løbende udvikling af DirectX10-baserede grafikkort der skal understøtte multitasking i ekstremer og have ydelse som aldrig set før. Innovationen er altså i den grad sat på vågeblus til vi ser DirectX11. NVidia har ikke en gang, som ATI ellers har, valgt at satse på DirectX10.1, af den simple grund, at det ikke kan betale sig at give sig i kast med en minimal udvikling, frem for at smide ekstra penge i bedre ydelse.
Ligesom tidligere generationer, er det Unified Shader der er den vigtigste brik i puslespillet. Unified Shaders skal ses som flere kerner der arbejder parallelt. Flere hjerner er altså i dette tilfælde langt bedre end én hurtig og siden vi så de første glimt af DirectX10 og Unified Shader, er udviklingen gået rigtig stærkt. Foruden at bruge dem i 3D-brug, var de første tanker at bruge dem som ekstreme processorer der kunne arbejde med videnskabelige problemstillinger. Det blev senere til at programmer som bl.a. ”folding” kunne udnytte egenskaben, så computere i disse tilfælde kunne blive mærkbart hurtigere. I dag er det udbygget til at omfatte den mere livsnære verden med fysik-beregninger og HD realtime-filmforbedring, og i fremtiden skulle der også være mulighed for ansigtsgenkendelse og realtime 3D-video.
NVidia havde næsten fordoblet antallet af shaders, med GTX280. Men med GTX260, er en del af disse shaders, 44 for at være helt præcis, blevet deaktiveret fra fabrikken. Lidt á la det vi så med 8800GTX kontra 8800GTS. Og mindst ligeså væsentligt, har de har forbedret ydelsen med op til 50% per shader, i forhold til 9800GTX. Vi kan altså dermed forvente op til 2,5x 9800GTX ydelse per MHz. I vores verden er det en forbedring, der i DirectX10-sammenhænge, bør være det samme, som et kæmpe boost i spilydelse.
Når det kommer til RAM-kredsene, har GTX260 en 448bit hukommelseskontroller, som vi ellers aldrig har set før på andre kort - storebroderen har 512bit. 448bit er en ret underlig størrelse, men er medvirkende til, at man kan købe billigere RAM, på bekostning af et dyrere printdesign.
På videosiden er der også kommet nogle enkelte forbedringer. Reelt kan den faktisk ikke blive bedre, da man med 8 og 9-serien scorede max-karakter for video-billedkvalitet. Men man har valgt at udvide dekodningen til også at omfatte VP2.
Efter opkøbet af Ageia er man i fuld gang med at udvikle PhysX-motoren til at passe i den Unified Shader. Med GTX 200-serien har man målrettet udviklingen på at forbedre PhysX-ydelsen. Alle NVidia-kort med Unified Shader, det vil sige både Geforce8, Geforce9 og Geforce GTX, har for nyligt fået understøttelse for PhysX. Men med GTX 200, vil man kunne se en markant ydelsesfremgang i forhold til de gamle modeller.
Af andre ting kan nævnes, at man understøtter PCI-express2.0 og at kortenes strømforbrug i idle er forbedret en hel del i forhold til tidligere modeller. Når GTX 200 belastes, er kortenes strømforbrug desværre meget højt. Kortene understøtter Hypridpower via HybridSLi der ved brug i et nyere NVidia-baseret bundkort vil kunne slukke grafikkortet når det ikke er i brug og derved spare endnu mere energi. Derudover er der mulighed for, at koble op til 3. Stk GTX 280 sammen i det Nvidia kalder 3-way SLi.
HybridSLi er dog ikke det eneste, der er med til at holde strømforbruget nede. Vi kender det med, at et stykke hardware under idle-tilstand, selv sætter frekvenserne ned for derved at spare på strømmen. Dette er ikke noget nyt på grafikkort, men dette kort er lidt mere specielt hvad det angår: GTX 200 sætter nemlig ikke bare frekvenser ned automatisk - kortet "slukker" rent faktisk for dele af selve grafikchippen. Og dét er noget der virker! I omegnen af 20Watt, skulle GTX260 bruge i idle. Vi har desværre ikke målt dette, men grafen for oven viser, hvor strømbesparende det større GTX280 er i idle.
Spørgsmålet er så, hvordan det så tager sig ud i praksis. Til dette formål har vi brugt Rivatuners HW-monitor funktion. I dette tilfælde har vi kørt en test i 3dmark06. Læg mærke til, at frekvenserne to gange under selve benchmarksessionen falder: Det passer fint med der, hvor den kører CPU-tests.
Rivatuner HWmonitor
Når vi snakker ved fuld belastning, er GTX280 lidt af en synder, med sine 236W. Men GTX260 er faktisk noget mere sober, med et maksimalt strømforbrug på 182W. Dette er stadigvæk omkring 25W mere end HD4870 - men så galt er det ikke. I hvert fald ikke, hvis man tager GTX280's 236W og HD4870X2's 286W i betragtning.
Sammenlagt er GTX200-serien mest en forbedring af et i forvejen ret godt produkt. NVidia har helt sikkert gjort sig umage med at lave denne chip, men alt i alt vil den i sidste ende kun adskille sig fra 8- og 9-serien på ydelse. Desværre, for der er masser af ting at arbejde videre med. Dette tæller bl.a. HDMI. Det er også nævnt flere gange at Unified Shader med stor præcision kan beregne lyd. Og at se et fuldt Blu-ray-understøttet grafikkort med PCM og/eller bitstream HD-lyd via HDMI, kunne ha’ gjort dette kort en del mere interessant. Disse kort kan ikke noget ekstraordinært som 8-serien ikke kan. Den kan ”blot” gøre det bedre og/eller hurtigere.
GTX260 som sådan, ser ud til, at give langt mere spæk for skillingen, end GTX280. Specifikationerne er nemlig ikke for forskellige endda, men det er prisen til gengæld. Om dette holder, må vi vente til at se med i ydelses-afsnittet...