Innovation/Teknologi
(Tak til Red_Martians for dette afsnit)
Geforce GTX 280 er teknologisk set ikke nogen specielt revolutionerende chip. Det vi reelt ser, er en løbende udvikling af DirectX10-baserede grafikkort der skal understøtte multitasking i ekstremer og have ydelse som aldrig set før. Innovationen er altså i den grad sat på vågeblus til vi ser DirectX11. NVidia har ikke en gang, som ATI ellers har, valgt at satse på DirectX10.1, af den simple grund, at det ikke kan betale sig at give sig i kast med en minimal udvikling, frem for at smide ekstra penge i bedre ydelse.
Ligesom tidligere generationer, er det Unified Shader der er den vigtigste brik i puslespillet. Unified Shaders skal ses som flere kerner der arbejder parallelt. Flere hjerner er altså i dette tilfælde langt bedre end én hurtig og siden vi så de første glimt af DirectX10 og Unified Shader, er udviklingen gået rigtig stærkt. Foruden at bruge dem i 3D-brug, var de første tanker at bruge dem som ekstreme processorer der kunne arbejde med videnskabelige problemstillinger. Det blev senere til at programmer som bl.a. Folding@Home kunne udnytte egenskaben, så computere i disse tilfælde kunne blive mærkbart hurtigere. I dag er det udbygget til at omfatte den mere livsnære verden med fysik-beregninger og HD Realtime filmforbedring, og i fremtiden skulle der også være mulighed for ansigtsgenkendelse og realtime 3D-video.
NVidia har næsten fordoblet antallet af shaders, samt de har forbedret ydelsen med op til 50% per shader i forhold til 9800GTX. Vi kan altså dermed forvente op til 3x 9800GTX shaderydelse per Hz. I vores verden er det en forbedring der i DirectX10-sammenhænge bør være det samme som et kæmpe boost i spilydelse.
GTX 280 har dernæst fået udvidet sine ram-kredse. De gamle geforcekort har max kørt med 384bit ram-interface. En ret underlig størrelse, men som i sidste ende var med til at man kunne købe billigere ram på bekostning af et dyrere printdesign. Et års tid efter blev designet ændret således, at det med 9800-kortene blev 256bit med lidt hurtigere ram. GTX280 har man valgt at øge til 512bit GDDR3-ram. Noget vi kun har set en gang tidligere fra ATi. Og dernæst er ramfrekvensen øget en del. At vælge 512bit ramkredse giver mere komplekst print og chipdesign, men øger ramhastigheden med faktor-2 frem for 256bit.
På videosiden er der også kommet nogle enkelte forbedringer. Reelt kan den faktisk ikke blive bedre, da man med 8- og 9-serien scorede max-karakter for video-billedkvalitet. Men man har valgt at udvide dekodningen til også at omfatte VP2.
Efter opkøbet af Ageia er man i fuld gang med at udvikle PhysX-motoren til at passe til Unified Shader-teknologien. Med GTX 200-serien har man målrettet udviklingen på at forbedre PhysX-ydelsen. Alle NVidia-kort med Unified Shader vil om kort tid understøtte PhysX, men med GTX 200 vil man kunne se en markant ydelsesfremgang i forhold til de gamle modeller.
Af andre ting kan nævnes at man understøttet PCI-express2.0 og at kortenes strømforbrug i idle er forbedret en hel del i forhold til tidligere modeller. Når GTX 200 belastes er kortenes strømforbrug desværre meget højt. Kortene understøtter hypridpower via hybridSLi der ved brug i et nyere Nvidia-baseret bundkort vil kunne slukke grafikkortet når det ikke er i brug og derved spare endnu mere energi. Derudover vil der være mulighed for at koble op til 3. Stk GTX 280 sammen i det nvidia kalder 3-way SLi.
HybridSLi er dog ikke det eneste, der er med til at holde strømforbruget nede. Vi kender det med, at et stykke hardware under idle-tilstand, selv sætter frekvenserne ned for derved at spare på strømmen. Dette er ikke noget nyt på grafikkort, men dette kort er lidt mere specielt hvad det angår: GTX 200 sætter nemlig ikke bare frekvenser ned automatisk - kortet "slukker" rent faktisk for dele af selve grafikchippen! Dette sparer en masse strøm, hvad også fremgår af NVidia's materiale, som jeg hermed gengiver:
- Idle/2D power mode (ca. 25W)
- Blu-ray DVD playback mode (ca. 35W)
- Full 3D performance mode (varies - worst case TDP 236W)
- HypridPower mode (effectively 0W)
Spørgsmålet er så, hvordan det så tager sig ud i praksis. Til dette formål har jeg brugt Rivatuners HW-monitor funktion. I dette tilfælde har jeg kørt en test i 3dmark06. Læg mærke til, at frekvenserne to gange under selve benchmarksessionen falder: Det passer fint med der, hvor den kører CPU-tests.
Rivatuner HWmonitor
Sammenlagt er GTX200-serien mest en forbedring af et i forvejen ret godt produkt. NVidia har helt sikkert gjort sig umage med at lave denne chip, men alt i alt vil den i sidste ende kun adskille sig fra 8- og 9-serien på ydelse. Desværre, for der er masser af ting at arbejde videre med. Dette tæller bl.a. HDMI. Det er også nævnt flere gange at Unified Shader med stor præcision kan beregne lyd. Og at se et fuldt blu-ray-understøttet grafikkort med PCM og/eller bitstream HD-lyd via HDMI, kunne ha’ gjort dette kort en del mere interessant. Disse kort kan ikke noget ekstraordinært som 8-serien ikke kan. Den kan ”blot” gøre det bedre og/eller hurtigere.