Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: MSI
DK distributør: InterData

Innovation/Teknologi

 

 

 

(Tak til Red_Martians for dette afsnit)

 

Geforce GTX 280 er teknologisk set ikke nogen specielt revolutionerende chip. Det vi reelt ser, er en løbende udvikling af DirectX10-baserede grafikkort der skal understøtte multitasking i ekstremer og have ydelse som aldrig set før. Innovationen er altså i den grad sat på vågeblus til vi ser DirectX11. NVidia har ikke en gang, som ATI ellers har, valgt at satse på DirectX10.1, af den simple grund, at det ikke kan betale sig at give sig i kast med en minimal udvikling, frem for at smide ekstra penge i bedre ydelse.
 
Ligesom tidligere generationer, er det Unified Shader der er den vigtigste brik i puslespillet. Unified Shaders skal ses som flere kerner der arbejder parallelt. Flere hjerner er altså i dette tilfælde langt bedre end én hurtig og siden vi så de første glimt af DirectX10 og Unified Shader, er udviklingen gået rigtig stærkt. Foruden at bruge dem i 3D-brug, var de første tanker at bruge dem som ekstreme processorer der kunne arbejde med videnskabelige problemstillinger. Det blev senere til at programmer som bl.a. Folding@Home kunne udnytte egenskaben, så computere i disse tilfælde kunne blive mærkbart hurtigere. I dag er det udbygget til at omfatte den mere livsnære verden med fysik-beregninger og HD Realtime filmforbedring, og i fremtiden skulle der også være mulighed for ansigtsgenkendelse og realtime 3D-video.
NVidia har næsten fordoblet antallet af shaders, samt de har forbedret ydelsen med op til 50% per shader i forhold til 9800GTX. Vi kan altså dermed forvente op til 3x 9800GTX shaderydelse per Hz. I vores verden er det en forbedring der i DirectX10-sammenhænge bør være det samme som et kæmpe boost i spilydelse.
GTX 280 har dernæst fået udvidet sine ram-kredse. De gamle geforcekort har max kørt med 384bit ram-interface. En ret underlig størrelse, men som i sidste ende var med til at man kunne købe billigere ram på bekostning af et dyrere printdesign. Et års tid efter blev designet ændret således, at det med 9800-kortene blev 256bit med lidt hurtigere ram. GTX280 har man valgt at øge til 512bit GDDR3-ram. Noget vi kun har set en gang tidligere fra ATi. Og dernæst er ramfrekvensen øget en del. At vælge 512bit ramkredse giver mere komplekst print og chipdesign, men øger ramhastigheden med faktor-2 frem for 256bit.
På videosiden er der også kommet nogle enkelte forbedringer. Reelt kan den faktisk ikke blive bedre, da man med 8- og 9-serien scorede max-karakter for video-billedkvalitet. Men man har valgt at udvide dekodningen til også at omfatte VP2.
Efter opkøbet af Ageia er man i fuld gang med at udvikle PhysX-motoren til at passe til Unified Shader-teknologien. Med GTX 200-serien har man målrettet udviklingen på at forbedre PhysX-ydelsen. Alle NVidia-kort med Unified Shader vil om kort tid understøtte PhysX, men med GTX 200 vil man kunne se en markant ydelsesfremgang i forhold til de gamle modeller.
Af andre ting kan nævnes at man understøttet PCI-express2.0 og at kortenes strømforbrug i idle er forbedret en hel del i forhold til tidligere modeller. Når GTX 200 belastes er kortenes strømforbrug desværre meget højt. Kortene understøtter hypridpower via hybridSLi der ved brug i et nyere Nvidia-baseret bundkort vil kunne slukke grafikkortet når det ikke er i brug og derved spare endnu mere energi. Derudover vil der være mulighed for at koble op til 3. Stk GTX 280 sammen i det nvidia kalder 3-way SLi.
HybridSLi er dog ikke det eneste, der er med til at holde strømforbruget nede. Vi kender det med, at et stykke hardware under idle-tilstand, selv sætter frekvenserne ned for derved at spare på strømmen. Dette er ikke noget nyt på grafikkort, men dette kort er lidt mere specielt hvad det angår: GTX 200 sætter nemlig ikke bare frekvenser ned automatisk - kortet "slukker" rent faktisk for dele af selve grafikchippen! Dette sparer en masse strøm, hvad også fremgår af NVidia's materiale, som jeg hermed gengiver:
  • Idle/2D power mode (ca. 25W)
  • Blu-ray DVD playback mode (ca. 35W)
  • Full 3D performance mode (varies - worst case TDP 236W)
  • HypridPower mode (effectively 0W)
Spørgsmålet er så, hvordan det så tager sig ud i praksis. Til dette formål har jeg brugt Rivatuners HW-monitor funktion. I dette tilfælde har jeg kørt en test i 3dmark06. Læg mærke til, at frekvenserne to gange under selve benchmarksessionen falder: Det passer fint med der, hvor den kører CPU-tests.
 
Rivatuner HWmonitor
 
Sammenlagt er GTX200-serien mest en forbedring af et i forvejen ret godt produkt. NVidia har helt sikkert gjort sig umage med at lave denne chip, men alt i alt vil den i sidste ende kun adskille sig fra 8- og 9-serien på ydelse. Desværre, for der er masser af ting at arbejde videre med. Dette tæller bl.a. HDMI. Det er også nævnt flere gange at Unified Shader med stor præcision kan beregne lyd. Og at se et fuldt blu-ray-understøttet grafikkort med PCM og/eller bitstream HD-lyd via HDMI, kunne ha’ gjort dette kort en del mere interessant. Disse kort kan ikke noget ekstraordinært som 8-serien ikke kan. Den kan ”blot” gøre det bedre og/eller hurtigere.
Gilbert
 
Elitebruger
Tilføjet:
17-07-2008 11:24:08
Svar/Indlæg:
4089/252
Fint test. Men hvorfor teste et DX10 kort på et forældet OS med forældet DX? Svarer jo lidt til at prøvekøre en ferrari på en grusvej.


Lazare
 
Overclocker
Tilføjet:
17-07-2008 12:48:58
Svar/Indlæg:
63/0
fuldstændig latterlig test!
forældet cpu, skod chipsæt, dårlige ram og et forældet OS der ikke understøtter alle funktioner i grafikkortet!
Dårlig stil HWT!
dette er ikke en brugbar test!


CrazyEyes^DK
 
Elitebruger
Tilføjet:
17-07-2008 13:34:06
Svar/Indlæg:
2388/52
#2
hvorfor melder du dig så ikke til crew? De skal jo nok selv betale for deres udstyr som de tester med!

og jo, det er i særdeleshed en brugbar test, da det viser hvordan kortet vil performe sammen med en lidt ældre cpu.


Gripen90
 
Senior Skribent
Tilføjet:
17-07-2008 14:02:45
Svar/Indlæg:
15982/637
#1: hvorfor ikke ? der er jo alligevel ikke noget ordenligt DX10 fis ude endnu... den gang DX10 lapning til Bioshock, Crysis, Assassins Creed er jo til at grine af.
Der er mange der stadig kører DX10 kort i winXP.

#2: Dårlig læsning og forståelse af testen,


Cook
 
Elitebruger
Tilføjet:
17-07-2008 14:17:44
Svar/Indlæg:
563/64
#2 Hvis jeg skal svare en smule konstruktivt på din ukonstruktive kritik så er vi løbende under opgradering af vores testmaskiner så de er nogenlunde tidssvarende, men der er her flere ting man skal tage i betragtning. For det først skal skribenterne som udgangspunkt selv købe deres udstyr, hvilket jo kan være en dyr fornøjelse på SU. Derudover viste sidste rundspørge at 78% af vores læsere stadig kører XP, så der er DX10 ikke aktuelt. Det er da heller ikke alle vores læsere der nødvendigvis kører det nyeste rig, så her viser testen meget godt, hvad de netop kan få ud af at opgradere til det nyeste highend kort. Desuden har jeg brugt ekstra tid på at vise, hvor stor CPU-afhængigheden er for de moderne grafikkort. Det kan du evt. kigge på en ekstra gang.

Ved sidste møde blev det afgjort at vi efterhånden skal konvertere til Vista, når licenserne er på plads og når jeg alligevel skifter til Vista bliver min E6700 nok også skiftet.

Mvh Cook


hamderD
 
Elitebruger
Tilføjet:
17-07-2008 14:38:49
Svar/Indlæg:
7263/260
Fed kort, synd det koster så meget.


arsenio3d
 
Elitebruger
Tilføjet:
17-07-2008 14:43:56
Svar/Indlæg:
2823/238
#2 slå lige koldt vand i blodet hva´? Der er rigtig mange der har en maskine der ligner den der er blevet brugt i testen, desuden kan man også sammenligne med de andre kort som konkurrerre med testkortet,(jeg går ud fra at de også er blevet testet på same setup) på den måde kan man se hvad der bedst kan betale sig...


Miccim
 
Elitebruger
Tilføjet:
17-07-2008 15:14:56
Svar/Indlæg:
3233/128
#2 Du går hårdt til den!

Er du ikke glad for de mennesker gider at bruge så lang tid på at teste? Personligt synes jeg kritik er iorden men det skal være leveret på en passende måde og understøttet. 😉


saiot
 
Elitebruger
Tilføjet:
17-07-2008 16:23:51
Svar/Indlæg:
7111/480
fedt med det størmforbug test syns ild forbruget er godt nok det er så lavt 🙂


Polarfar
 
Senior Skribent
Tilføjet:
17-07-2008 18:53:47
Svar/Indlæg:
2309/846
En E6700 på 3.33GHz vil tæve en E8400 3.0GHz på de lange stræk, så jeg forstår ikke kritikken fra #2. Det testsystem lever fuldt op til standarden i dag. Og mht til XP vs. Vista så er det bestemt noget vi overvejer, men det kræver et sponsorat fra en villig giver hvis hele vores crew skal have adgang til Vista.


MadsAG
 
Elitebruger
Tilføjet:
18-07-2008 02:14:07
Svar/Indlæg:
5421/53
Fedt test.. Og #2 er da helt galt på den..

Super med den dejlige CPU flaskehals ting.. Ville være naice hvis det blev standard. 😉


arsenio3d
 
Elitebruger
Tilføjet:
18-07-2008 07:28:17
Svar/Indlæg:
2823/238
Det er nok de færreste der har en QX i maskinen... og der er mange andre på nettet der kommer ind og læser hwt.´s artikler, så det er ikke kun os der har en profil herinde der læser dem...


MadsH
 
Elitebruger
Tilføjet:
18-07-2008 08:16:19
Svar/Indlæg:
1915/57
#2 fuldstændig latterlig kommentar!
forældet kommentar, skod kommentar, dårlig kommentar og en forældet kommentar der ikke understøtter alle funktioner i grafikkortet! 🤣
Dårlig stil Lazare!
dette er ikke en brugbar kommentar!


Xtream_metro
 
Elitebruger
Tilføjet:
18-07-2008 11:05:20
Svar/Indlæg:
252/18
#2 profil billede passer vist meget godt hvis det er selv portræt. 🤡


#15
PK
 
Elitebruger
Tilføjet:
18-07-2008 13:11:42
Svar/Indlæg:
931/181
#2 amen brother! kortet skal da få lov til at spille med musklerne.


#16
PK
 
Elitebruger
Tilføjet:
18-07-2008 13:12:18
Svar/Indlæg:
931/181
dobbelt post


Lazare
 
Overclocker
Tilføjet:
18-07-2008 13:12:46
Svar/Indlæg:
63/0
ukonstruktivt?
jeg fremhæver mine kritikpunkter og giver min mening til kende..
Alle herinde burde da vide som basisviden at der skal være en balance mellem den hardware man putter i sin computer, og dermed er der ingen grund til at smide et hjernedødt kraftigt grafikkort i en computer der bare ikke kan følge med dets ydelse!
sorry hvis jeg fik det til at lyde vrissent, men jeg mener nu engang stadig at det ikke er brugbart!

Og til #3: jeg kan da godt melde mig til crewet - hvis jeg havde tiden :p
og jo jeg er glad for at folk gider teste det, men jeg ved der er mange andre skribenter herinde der har kraftigere maskiner - hvorfor ikke lade dem teste kortet istedet?!?!



#18
Cook
 
Elitebruger
Tilføjet:
18-07-2008 13:48:53
Svar/Indlæg:
563/64
#17 Nu vil jeg ikke ud i noget mudderkastning, men det passer simpelthen ikke. Vi er 4 faste grafikkort skribenter: JacobHL, Emillos, Goaguy og mig. Hvis du kigger på, hvilken processor vi har er de mere eller mindre identiske. De 3 af os har E6XXX og Emil har Q6XXX, men det ligger stadig i samme område, især når man tester grafikkort.


CrazyEyes^DK
 
Elitebruger
Tilføjet:
18-07-2008 14:23:08
Svar/Indlæg:
2388/52
#18
Hvor lang tid tager det i gennemsnit at teste et grafikkort? - bare for at få et ca. tal :)


#20
Cook
 
Elitebruger
Tilføjet:
18-07-2008 14:40:39
Svar/Indlæg:
563/64
Det tager ca. 2-3 timer og kører tests igennem, overclocke, måle temps og strømforbrug. Og så tager det 2-3 timer at skrive artiklen.


CrazyEyes^DK
 
Elitebruger
Tilføjet:
18-07-2008 15:05:18
Svar/Indlæg:
2388/52
#20
Det er da ikke alverdens.. mon ikke der skulle være nogle, der gerne ville ligge de 4-6 timer i HWT en gang hver hver anden måned?
jeg kunne da godt finde på at tilmelde mig crew -så snart jeg bare har fået fat på CPU og HDD 😳 hehe


#22
Cook
 
Elitebruger
Tilføjet:
18-07-2008 15:43:36
Svar/Indlæg:
563/64
#21 Det lyder yderst fornuftigt 🙂


Burgurne
 
Elitebruger
Tilføjet:
18-07-2008 16:35:05
Svar/Indlæg:
5874/1287
Modsat #2, så synes jeg godt om testen. langt de fleste af os kører stadig XP, og langt de fleste af os har en PC der minder om den der er testet med, hvilket vil sige at langt de fleste af os nu ved, hvad vi vil kunne forvente af ekstra ydelse ved at investere i dette kort (eller et af de andre i testen selvf.) Da der endnu ikke her ca 1½ år efter DX10's fremkomst er kommet noget "super-dx10" grafik, er det jo alligevel ikke rigtig noget at teste i, men måske kommer det? Det gør det jo nok, og vi skal (sandsynligvis) alligevel have nyt grafikkort til næste år når DX11 kommer, og _hvis_ DX11 ikke bliver "Vista only", så vil XP sikkert leve til Windows 7 kommer på banen. Så fra min side en tak til Cook for at bruge tid og energi på at teste kort i en "almindelig" PC. 🙂
Hvad glæde ville vi have af at få at vide, hvordan 280-kortet opfører sig i en top-PC, som meget få alligevel har, men som mange naturligvis drømmer om. Der er jo en grund til, at det er en toyota der holder i garagen og en ferrari er på billedet på væggen 😎


#24
PK
 
Elitebruger
Tilføjet:
18-07-2008 16:46:16
Svar/Indlæg:
931/181
#23 hvorfor skulle dx 11 understøtte xp når dx10 ikke gør?

det er stadig synd at tage et så sygt kort og ikke vise dets fulde potentiale.


Lazare
 
Overclocker
Tilføjet:
18-07-2008 17:02:36
Svar/Indlæg:
63/0
jeg kan sagtens se det ud fra synspunktet om at det kører i en mid-end maskine og at der er rart for folk at vide hvordan det yder i en sådan maskine.. men hvis man har råd til at købe et gtx280 skulle man måske overveje at bruge pengene lidt mere fornuftigt fordelt i ens computer..

synes bare det giver et ærgerligt indtryk af kortet når der er så meget mere potentiale i det end hvad testen viser her..

som nummer 1 siger (uden at blive flamet ;) ) så er det som at teste en ferrari på en grusvej :s


Tenkin
 
Elitebruger
Tilføjet:
18-07-2008 18:12:13
Svar/Indlæg:
3332/33
altså nu vil jeg ikke blandes ind i noget, men synes ikke at ALLE skal smidde en kommentar om at de er uenige med Lazare. det er fint at der er en eller to der skriver det, men kom dog videre så. tror han har fattet det 🙂


#27
PK
 
Elitebruger
Tilføjet:
18-07-2008 18:45:33
Svar/Indlæg:
931/181
#26 jeg synes at vi skal have alle brugere på hwt til at give deres mening til kende :D så kan vi få en laaaaaaang tråd :P


Tenkin
 
Elitebruger
Tilføjet:
18-07-2008 19:00:24
Svar/Indlæg:
3332/33
#27 hehe. ku være humor 😀 men har selv prøvet at sidde på et forum og lufte min mening, hvor alle gik imod mig. selvom jeg havde fat i noget. og det fik mig til at forlade det forum. men det var godt det samme 🤣


#29
PK
 
Elitebruger
Tilføjet:
18-07-2008 19:54:29
Svar/Indlæg:
931/181
#28 sandheden er ofte ildehørt 🤣


Gripen90
 
Senior Skribent
Tilføjet:
18-07-2008 22:09:32
Svar/Indlæg:
15982/637
#25: Og nej. Hvis du sidder men en 24TFT og vil spille i native opløsningen på f.eks 1920x1200 så kræver det GFX power, og med et hurtigt GFX er det mulig at køre i den opløsning og med FSAA/AF aktiveret. Som der jo også vises i testen, så er CPU'en en sekundær rolle når vi allerede er oppe i 1600x1200 og med FSAA/AF- her er det grafikkortet der er vigtigt. Så længe CPU'en er rimelig aktuel kan ethvert grafikkort give et boost til højere opløsninger og FSAA/AF:


CrazyEyes^DK
 
Elitebruger
Tilføjet:
19-07-2008 09:18:07
Svar/Indlæg:
2388/52
#29
Det skulle vel ikke være jubii debatten? der er de alle så indspiste, at enten er man enig, eller også er man den der er smuttet.


Burgurne
 
Elitebruger
Tilføjet:
19-07-2008 15:19:45
Svar/Indlæg:
5874/1287
#30 det var jo præcist det jeg mente, CPU'en HAR vitterlig ikke meget at sige i høje opløsninger og med masser af FSAA og ani. slået til. 🙂

#24, fordi det var en Microsoft beslutning (for at få solgt nogle flere Vista-licenser) at DX10 skulle være Vista-only, men det problem har MS jo ikke når DX11 udkommer, idet de ikke sælger XP mere. Programmeringsmæssigt er der INTET til hinder for, at DX10 skulle kunne køre på XP.
Men vi mangler jo stadig et DX10 spil som kan retfærdiggøre at DX10 er et _must have_ her 1½ år efter fremkomsten af DX10/Vista.