Test: ASUS ENGTX260 TOP /HTDP

Grafikkort, NVIDIA  d.  14. oktober. 2008, skrevet af Emillos 20 Kommentarer.  Vist: 17965 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: ASUS
DK distributør: Rosenmeier
 

Innovation/Teknologi

(Nedenstående er en editeret udgave af Red_Martians afsnit om GTX280)

 

Geforce GTX260 er teknologisk set ikke nogen specielt revolutionerende chip. Det vi reelt ser, er en løbende udvikling af DirectX10-baserede grafikkort der skal understøtte multitasking i ekstremer og have ydelse som aldrig set før. Innovationen er altså i den grad sat på vågeblus til vi ser DirectX11. NVidia har ikke en gang, som ATI ellers har, valgt at satse på DirectX10.1, af den simple grund, at det ikke kan betale sig at give sig i kast med en minimal udvikling, frem for at smide ekstra penge i bedre ydelse.
 
Ligesom tidligere generationer, er det Unified Shader der er den vigtigste brik i puslespillet. Unified Shaders skal ses som flere kerner der arbejder parallelt. Flere hjerner er altså i dette tilfælde langt bedre end én hurtig og siden vi så de første glimt af DirectX10 og Unified Shader, er udviklingen gået rigtig stærkt. Foruden at bruge dem i 3D-brug, var de første tanker at bruge dem som ekstreme processorer der kunne arbejde med videnskabelige problemstillinger. Det blev senere til at programmer som bl.a. ”folding” kunne udnytte egenskaben, så computere i disse tilfælde kunne blive mærkbart hurtigere. I dag er det udbygget til at omfatte den mere livsnære verden med fysik-beregninger og HD realtime-filmforbedring, og i fremtiden skulle der også være mulighed for ansigtsgenkendelse og realtime 3D-video.
NVidia havde næsten fordoblet antallet af shaders, med GTX280. Men med GTX260, er en del af disse shaders, 44 for at være helt præcis, blevet deaktiveret fra fabrikken. Lidt á la det vi så med 8800GTX kontra 8800GTS. Og mindst ligeså væsenligt, har de har forbedret ydelsen med op til 50% per shader, i forhold til 9800GTX. Vi kan altså dermed forvente op til 2,5x 9800GTX ydelse per MHz. I vores verden er det en forbedring, der i DirectX10-sammenhænge, bør være det samme, som et kæmpe boost i spilydelse.
Når det kommer til RAM-kredsene, har GTX260 en 448bit hukommelseskontroller, som vi ellers aldrig har set før på andre kort - storebroderen har 512bit. 448bit er en ret underlig størrelse, men er medvirkende til, at man kan købe billigere RAM, på bekostning af et dyrere printdesign. 
På videosiden er der også kommet nogle enkelte forbedringer. Reelt kan den faktisk ikke blive bedre, da man med 8 og 9-serien scorede max-karakter for video-billedkvalitet. Men man har valgt at udvide dekodningen til også at omfatte VP2.
Efter opkøbet af Ageia er man i fuld gang med at udvikle PhysX-motoren til at passe i den Unified Shader. Med GTX 200-serien har man målrettet udviklingen på at forbedre PhysX-ydelsen. Alle NVidia-kort med Unified Shader, det vil sige både Geforce8, Geforce9 og Geforce GTX, har for nyligt fået understøttelse for PhysX. Men med GTX 200, vil man kunne se en markant ydelsesfremgang i forhold til de gamle modeller.
Af andre ting kan nævnes, at man understøtter PCI-express2.0 og at kortenes strømforbrug i idle er forbedret en hel del i forhold til tidligere modeller. Når GTX 200 belastes, er kortenes strømforbrug desværre meget højt. Kortene understøtter Hypridpower via HybridSLi der ved brug i et nyere NVidia-baseret bundkort vil kunne slukke grafikkortet når det ikke er i brug og derved spare endnu mere energi. Derudover er der mulighed for, at koble op til 3. Stk GTX 280 sammen i det Nvidia kalder 3-way SLi.
HybridSLi er dog ikke det eneste, der er med til at holde strømforbruget nede. Vi kender det med, at et stykke hardware under idle-tilstand, selv sætter frekvenserne ned for derved at spare på strømmen. Dette er ikke noget nyt på grafikkort, men dette kort er lidt mere specielt hvad det angår: GTX 200 sætter nemlig ikke bare frekvenser ned automatisk - kortet "slukker" rent faktisk for dele af selve grafikchippen. Og dét er noget der virker! I omegnen af 20Watt, skulle GTX260 bruge i idle. Vi har desværre ikke målt dette, men grafen for oven viser, hvor strømbesparende det større GTX280 er i idle.
Spørgsmålet er så, hvordan det så tager sig ud i praksis. Til dette formål har vi brugt Rivatuners HW-monitor funktion. I dette tilfælde har vi kørt en test i 3dmark06. Læg mærke til, at frekvenserne to gange under selve benchmarksessionen falder: Det passer fint med der, hvor den kører CPU-tests.
 
Rivatuner HWmonitor
Når vi snakker ved fuld belastning, er GTX280 lidt af en synder, med sine 236W. Men GTX260 er faktisk noget mere sober, med et maksimalt strømforbrug på 182W. Dette er stadigvæk omkring 25W mere end HD4870 - men så galt er det ikke. I hvert fald ikke, hvis man tager GTX280's 236W og HD4870X2's 286W i betragtning.
Sammenlagt er GTX200-serien mest en forbedring af et i forvejen ret godt produkt. NVidia har helt sikkert gjort sig umage med at lave denne chip, men alt i alt vil den i sidste ende kun adskille sig fra 8- og 9-serien på ydelse. Desværre, for der er masser af ting at arbejde videre med. Dette tæller bl.a. HDMI. Det er også nævnt flere gange at Unified Shader med stor præcision kan beregne lyd. Og at se et fuldt Blu-ray-understøttet grafikkort med PCM og/eller bitstream HD-lyd via HDMI, kunne ha’ gjort dette kort en del mere interessant. Disse kort kan ikke noget ekstraordinært som 8-serien ikke kan. Den kan ”blot” gøre det bedre og/eller hurtigere.

GTX260 som sådan, ser ud til, at give langt mere spæk for skillingen, end GTX280. Specifikationerne er nemlig ikke for forskellige endda, men det er prisen til gengæld. Om dette holder, må vi vente til at se med i ydelses-afsnittet...
Xtream_metro
 
Elitebruger
Tilføjet:
14-10-2008 06:06:06
Svar/Indlæg:
252/18
Jeg tror i har skrevet forkert på teaseren ude på forsiden tror ikke kortet har "896GB" ram :D


gabbadoo
 
Elitebruger
Tilføjet:
14-10-2008 08:08:03
Svar/Indlæg:
3065/208
#1 Tak, det er rettet 🙂


Clintin
 
Superbruger
Tilføjet:
14-10-2008 09:52:32
Svar/Indlæg:
1317/46
Du skriver at "medierne" ikke anerkender GTX260 (og gtx280), det er ikke helt korrekt, hvis du læser Toms månedlige grafikkorts oversigt "Best videocarts for...", så vil du se at de sidestiller 4780 og gtx260, netop fordi de yder ens og koster ens.

Ellers fin test og interessant kort.


Gripen90
 
Senior Skribent
Tilføjet:
14-10-2008 10:54:32
Svar/Indlæg:
15982/637
Go' test. Måske lidt unfair at stille det lige over for et stock HD4870 - men så må i jo bare få PowerColor Radeon HD4870 PCS 1GB ind til test 😀

Hvis jeg havde pengene så kunne jeg sgu godt finde på at købe en SLi mobo of smide sådan to pre-oc GTX260 i SLi... men "in my dreams". 😳


Clintin
 
Superbruger
Tilføjet:
14-10-2008 12:58:13
Svar/Indlæg:
1317/46
#4 med et 9800x2, så har du vel ikke de store problemer med at køre nogle spil?


1EaR
 
Elitebruger
Tilføjet:
14-10-2008 13:18:50
Svar/Indlæg:
5750/124
#5 #4 har altid den med at han gerne vil have det nyeste nye (hvem vil ikke det 🤣 ).

Til testen. Jeg sad fast ved software delen (ved at bruge næste knappen i bunden). Det blev løst ved at vælge næste side oppe i toppen 😐


Emillos
 
Overclocker
Tilføjet:
14-10-2008 13:52:54
Svar/Indlæg:
14079/622
->#1

Det er ret vildt med de 896GB RAM.. jeg installerede sågar Vista direkte på kortet! 😲 Eneste problem var, at installationen røg allerede ved første genstart... 🤡


->#3

Okay, det er jo super. 🙂
Mit indtryk generelt er dog stadig, at AMD/ATi høster langt mere omtale end nVidia pt.


->#4

Vi har desværre ikke noget OverClocket HD4870. Men det kommer nok. 🙂


->#6

Sært - jeg har ingen problemer.
Hvilken Browser benytter du?


SoundWave
 
Elitebruger
Tilføjet:
14-10-2008 15:07:16
Svar/Indlæg:
3011/103
Hvad sker der for alle de forskellige skrift typer/størrelser? Det er ret generende, at størrelserne varierer.


hamderD
 
Elitebruger
Tilføjet:
14-10-2008 15:45:09
Svar/Indlæg:
7263/260
#0

God test, og fedt kort, er faktisk meget godt med 🙂 .

Du skal lige rette "3. Stk GTX 280 sammen i det NVvidia kalder 3-way SLi."


KingGuru
 
Elitebruger
Tilføjet:
14-10-2008 18:04:40
Svar/Indlæg:
624/173
Nu bliver der skrevet i sumary, at den kom sammen med introduktion af CUDA. Men Cuda kom vel i virkligheden sammen med Gforce 8 serien. Det er rigtigt at den kører Cuda Version 2, men det er der også enkelte i Gforce 9 og 8 serien.. ex 8800GS.
Så hvorfor er det så fedt frem for tidligere modeller?

dernæst.. så bliver CUDA næppe fremtiden.. knap nok den nærmeste fremtid, da det lugter lidt af at OpenCL kommer til at overtage.. Cuda er på nuværende tidspunkt kun brugbart på Nyere nvidia kort.. med undtagelse af enkelte elementer, som kan patches til at køre på ATI/AMD.. OpenCL (Open Computer Language) er en større gruppe, hvor ATI forhåbentlig kommer ind under, hvis de ikke allerede er det, hvilket er en god grobund for større udbredelse.

KG.


Gripen90
 
Senior Skribent
Tilføjet:
14-10-2008 18:34:50
Svar/Indlæg:
15982/637
#5: Nej det har jeg heller ikke.

#6: PC'en har stået urørt i siden februar, det seneste skifte var til 9800GX2 i marts - ellers er alt det samme. Men jeg fortryder, at jeg ikke valgte at købe et SLi bundkort til at starte med... jeg satte DDR3 support over SLi support - det var tåbeligt.

Oh well jeg har et 790GX bundkort liggende med CF support, så det kunne være at de skulle tages i brug og så køre noget CF med HD4870 og en X4 9950 CPU.


Emillos
 
Overclocker
Tilføjet:
14-10-2008 20:18:29
Svar/Indlæg:
14079/622
->#9

Arh.. et V fra eller til. 😳


->#10

"Ej at forglemme, har nVidia også lanceret CUDA, i forbindelse med GTX200, og det kan vise sig, at være lidt et triumfkort - men kun på længere sigt, hvis tilslutningen til teknologien bliver stor. For det ville da være særdeles rart, at kunne bruge sit grafikkort til andet end grafik; videokonvertering eksempelvis. På minussiden, er mangel på HDMI med HD-lyd. Der mangler generelt nytænkning og vi savner en DisplayPort integreret. Denne er dog understøttet af GTX200 - nogle producenter vil muligvis producere kortet med en sådan."


Jeg skriver blot, at CUDA blev lanceret, ifbm. GeForce GTX200-serien. Der står skam ingen steder, at GeForce8 ikke kan det samme. Ikke desto mindre, synes jeg alligevel, at det er et fedt tiltag.

Det er da muligt, at CUDA ikke for alvor vil vinde indpas - ingen kan spå om fremtiden. Men jeg ved da, at man allerede nu, både kan konvertere film med BadaBoom Media Converter, samt køre CUDA-accellereret PhotoShop. Og hvis nVidia smider nok penge efter diverse software, tror jeg godt det kan blive et godt salgsargument.
Men jeg håber da også, at der kommer en åben standard i stedet. :yes:


KingGuru
 
Elitebruger
Tilføjet:
14-10-2008 21:20:50
Svar/Indlæg:
624/173
Det jeg prøver at sige er at CUDA blev introduceret med Gforce 8 serien..
det kan godt være de har lavet en relancering af CUDA.. men det er i såfald pga de er gået et versionnummer op. (Cuda version 2.0)
Jeg har i hvert fald rodet med CUDA længere tid end GTX200 serien har været der ;)

men om så ikke andet så er vi da enige i din sidste sætning.. jeg ville sq gerne jeg kunne lave mit speciale på en åbenstandart, i stedet for at skulle vælge side.. og lige pt vil denne side være Nvidia pga CUDA er et stærkere kort end det ATI har at byde på.


saiot
 
Elitebruger
Tilføjet:
14-10-2008 22:02:24
Svar/Indlæg:
7111/480
12# tror jeg godt det kan blive et godt salgsargument
ja jeg syns CUDA er alerrade et stort + for mig jeg syns det giver nvida ort et klart + så vis jeg kiger på 2 kort der yder næsten det same vil jeg tage nvida kortet på grund af det 🙂


Ersgaard
 
Superbruger
Tilføjet:
15-10-2008 09:06:32
Svar/Indlæg:
90/4
Tak for god anmeldelse, der lige kommer på det rigtige tidspunkt for mig 🙂

Men hvor har I fundet det til 1.900 kr.?? Er det ikke dette kort?:
http://www.edbpriser.dk/Produc...


/Ersgaard

Edit : Nevermind, blev bare lige forvirret over, at der på billederne på "TOP" 😳
Det må vel være dette hér:
http://www.edbpriser.dk/Produc...


Wise
 
Elitebruger
Tilføjet:
15-10-2008 09:46:09
Svar/Indlæg:
1604/60
Saftsuseme en god pris, tror mit G80 8800GTS snart skal pensioneres 😛


MadsAG
 
Elitebruger
Tilføjet:
15-10-2008 14:14:27
Svar/Indlæg:
5421/53
Tror også snart mit 8800 GT skal byttes ud :D, Nu må vi jo se hvordan den klarer sig i Far Cry 2 1920x1200 :p


hamderD
 
Elitebruger
Tilføjet:
15-10-2008 15:56:13
Svar/Indlæg:
7263/260
#12

Hehe, ser nu bare pænest ud med et 🙂


jAMBAZZ
 
Elitebruger
Tilføjet:
17-10-2008 13:12:57
Svar/Indlæg:
156/18
Hey, jeg synes godt artiklen kunne skrive hvad clock og memory hastigheden er på et stock GTX260, og hvad de er på dette ASUS, så man ligesom har noget at forholde sig til. Det ville være en rar update. Ellers godt arbejde som sædvanligvis :)


Emillos
 
Overclocker
Tilføjet:
18-10-2008 18:52:19
Svar/Indlæg:
14079/622
->#15

Arh - det er mig der er en klovn her! Det ER TOP-versionen det drejer sig om, til 2200kr. 😳

Derfor er ratingen blevet justeret. Kortet er stadig et okay køb, taget i betragtning af, at det umiddelbart, er det mest overclockede GTX260 på markedet i Danmark. Zotac har eksempelvis en version, der har samme GPU clock, men lavere RAM-clock - til 150kr mere. 🙂


->#19

Det ville egentlig være en meget fin ide - det vil jeg gøre i næste artikel.
Du kan imidlertid lige få standardclock her: 🙂

Core: 575MHz
Shader: 1250MHz
RAM: 2000MHz

ASUS ENGTX260 TOP /HTDP clock:

Core: 650MHz
Shader: 1400MHz
RAM: 2300MHz