Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Point of View
DK distributør: Fourcom

Innovation/Teknologi

(Tak til Red_Martians for dette afsnit)

 

Geforce GTX 280 er teknologisk set ikke nogen specielt revolutionerende chip. Det vi reelt ser, er en løbende udvikling af DirectX10-baserede grafikkort der skal understøtte multitasking i ekstremer og have ydelse som aldrig set før. Innovationen er altså i den grad sat på vågeblus til vi ser DirectX11. NVidia har ikke en gang, som ATI ellers har, valgt at satse på DirectX10.1, af den simple grund, at det ikke kan betale sig at give sig i kast med en minimal udvikling, frem for at smide ekstra penge i bedre ydelse.
 
Ligesom tidligere generationer, er det Unified Shader der er den vigtigste brik i puslespillet. Unified Shaders skal ses som flere kerner der arbejder parallelt. Flere hjerner er altså i dette tilfælde langt bedre end én hurtig og siden vi så de første glimt af DirectX10 og Unified Shader, er udviklingen gået rigtig stærkt. Foruden at bruge dem i 3D-brug, var de første tanker at bruge dem som ekstreme processorer der kunne arbejde med videnskabelige problemstillinger. Det blev senere til at programmer som bl.a. ”folding” kunne udnytte egenskaben, så computere i disse tilfælde kunne blive mærkbart hurtigere. I dag er det udbygget til at omfatte den mere livsnære verden med fysik-beregninger og HD realtime filmforbedring, og i fremtiden skulle der også være mulighed for ansigtsgenkendelse og realtime 3D-video.
NVidia har næsten fordoblet antallet af shaders, samt de har forbedret ydelsen med op til 50% per shader i forhold til 9800GTX. Vi kan altså dermed forvente op til 3x 9800GTX shaderydelse per Hz. I vores verden er det en forbedring der i DirectX10-sammenhænge bør være det samme som et kæmpe boost i spilydelse.
GTX 280 har dernæst fået udvidet sine ram-kredse. De gamle geforcekort har max kørt med 384bit ram-interface. En ret underlig størrelse, men som i sidste ende var med til at man kunne købe billigere ram på bekostning af et dyrere printdesign. Et års tid efter blev designet ændret således, at det med 9800-kortene blev 256bit med lidt hurtigere ram. GTX280 har man valgt at øge til 512bit GDDR3-ram. Noget vi kun har set en gang tidligere fra ATi. Og dernæst er ramfrekvensen øget en del. At vælge 512bit ramkredse giver mere komplekst print og chipdesign, men øger ramhastigheden med faktor-2 frem for 256bit.
På videosiden er der også kommet nogle enkelte forbedringer. Reelt kan den faktisk ikke blive bedre, da man med 8 og 9-serien scorede max-karakter for video-billedkvalitet. Men man har valgt at udvide dekodningen til også at omfatte VP2.
Efter opkøbet af Ageia er man i fuld gang med at udvikle PhysX-motoren til at passe i den Unified Shader. Med GTX 200-serien har man målrettet udviklingen på at forbedre PhysX-ydelsen. Alle NVidia-kort med Unified Shader vil om kort tid understøtte PhysX, men GTX 200 vil man kunne se en markant ydelsesfremgang i forhold til de gamle modeller.
Af andre ting kan nævnes at man understøttet PCI-express2.0 og at kortenes strømforbrug i idle er forbedret en hel del i forhold til tidligere modeller. Når GTX 200 belastes er kortenes strømforbrug desværre meget højt. Kortene understøtter hypridpower via hybridSLi der ved brug i et nyere Nvidia-baseret bundkort vil kunne slukke grafikkortet når det ikke er i brug og derved spare endnu mere energi. Derudover vil der være mulighed for at koble op til 3. Stk GTX 280 sammen i det nvidia kalder 3-way SLi.
HybridSLi er dog ikke det eneste, der er med til at holde strømforbruget nede. Vi kender det med, at et stykke hardware under idle-tilstand, selv sætter frekvenserne ned for derved at spare på strømmen. Dette er ikke noget nyt på grafikkort, men dette kort er lidt mere specielt hvad det angår: GTX 200 sætter nemlig ikke bare frekvenser ned automatisk - kortet "slukker" rent faktisk for dele af selve grafikchippen! Dette sparer en masse strøm, hvad også fremgår af NVidia's materiale, som jeg hermed gengiver:
  • Idle/2D power mode (ca. 25W)
  • Blu-ray DVD playback mode (ca. 35W)
  • Full 3D performance mode (varies - worst case TDP 236W)
  • HypridPower mode (effectively 0W)
Spørgsmålet er så, hvordan det så tager sig ud i praksis. Til dette formål har jeg brugt Rivatuners HW-monitor funktion. I dette tilfælde har jeg kørt en test i 3dmark06. Læg mærke til, at frekvenserne to gange under selve benchmarksessionen falder: Det passer fint med der, hvor den kører CPU-tests.
 
Rivatuner HWmonitor
 
Sammenlagt er GTX200-serien mest en forbedring af et i forvejen ret godt produkt. NVidia har helt sikkert gjort sig umage med at lave denne chip, men alt i alt vil den i sidste ende kun adskille sig fra 8- og 9-serien på ydelse. Desværre, for der er masser af ting at arbejde videre med. Dette tæller bl.a. HDMI. Det er også nævnt flere gange at Unified Shader med stor præcision kan beregne lyd. Og at se et fuldt blu-ray-understøttet grafikkort med PCM og/eller bitstream HD-lyd via HDMI, kunne ha’ gjort dette kort en del mere interessant. Disse kort kan ikke noget ekstraordinært som 8-serien ikke kan. Den kan ”blot” gøre det bedre og/eller hurtigere.
Tenkin
 
Elitebruger
Tilføjet:
16-06-2008 15:18:41
Svar/Indlæg:
3332/33
GIEF PRIS NED! 😲

sparker da okay røv det kort der 😉

men prisen er way too high ☹


MaddPirate88
 
Elitebruger
Tilføjet:
16-06-2008 15:20:34
Svar/Indlæg:
2576/125
#1 Ja, synes heller ikke det er værd, at bruge de penge på det. :no: Ydelsen er der, men prisen er helt forkert. Vente og ser hvad ATI byder på, selvom jeg ikke skal have nyt GFX. 😀


#3
CF
 
Elitebruger
Tilføjet:
16-06-2008 15:21:17
Svar/Indlæg:
4689/105
Det er ret vildt at det som et kort med 1 GPU kan slå et fra den gamle serie med 2 GPU'er. Springet til den nye serie er ikke lige så stort som fra 7xxx -> 8xxxx, men jeg synes ikke det er noget at være skuffet over som mange har været.

Man skal jo tænke på at det her kort med bare 1 GPU kan slå et af de gamle med 2 GPU'er, så jeg synes bestemt det er et fint resultat.

Jeg synes det er mærkeligt at nogle er overraskede over prisen. Det er jo normalt at helt nye topkort koster over 4k. Det gjorde 7900gtx og 8800gtx også i sin tid. Det er ikke bang-for-the-buck, men det er top-notch, og det koster desværre.


lerbech
 
Superbruger
Tilføjet:
16-06-2008 15:24:48
Svar/Indlæg:
186/28
er det kun mig der undres over crysis resultaterne, medium settings hvorfor ikke very high?? og resultater på 7000 FPS, hmm tror der er en lille fejl i den graf 🙂


MaddPirate88
 
Elitebruger
Tilføjet:
16-06-2008 15:25:11
Svar/Indlæg:
2576/125
#3 Det er også rigtigt fint, men pris forskellen på dette kort og GX2 er omkring 1000kr, og så meget mere yder 280 heller ikke til prisen er retfærdig gjordt. Men fedt kort det er det da. 😎

#4 Er det ikke very high?? Det skal da max testes i det spil!


lerbech
 
Superbruger
Tilføjet:
16-06-2008 15:37:47
Svar/Indlæg:
186/28
#5 ifølge grafen er det medium settings


The
 
Chefredaktør
Tilføjet:
16-06-2008 15:38:32
Svar/Indlæg:
4741/1690
Vi har kun haft kortet i to dage - derfor kun gansk få benchmark, men nVIDIA har lovet vi kan låne det ugen ud og så ser vi om der ikke er en opdatering på vej...


The Boss


Clintin
 
Superbruger
Tilføjet:
16-06-2008 15:40:01
Svar/Indlæg:
1317/46
Som #3 skriver så er prisen uinteressant GF10, bliver først interessant når der kommer afløsere til 8800gt/gts og 9800gtx, mon GF10 260 er det kort?

Iøvrigt imponerende i er kommet så tidligt ud med en test af kortet! Onkel Tom er kun lige kommet med deres test, så videre til næste side..........


DaMooze
 
Elitebruger
Tilføjet:
16-06-2008 16:07:04
Svar/Indlæg:
469/83
er jeg den eneste der undre mig over en average fps på flere tusinde ? o_O


DTU_XaVier
 
Elitebruger
Tilføjet:
16-06-2008 16:14:05
Svar/Indlæg:
2786/120
Det må da vist om nødvendigt være mit nye GFX, altefter hvad AMD præsterer... Mit 8800GTX er snart modent til pension 🙂

MVH.
Toke 🙂


Tenkin
 
Elitebruger
Tilføjet:
16-06-2008 16:23:54
Svar/Indlæg:
3332/33
folk der køber et kort til så mange penge der har altså alt for mange penge. man kan jo købe en middel (stadig god) gamer pc for de penge. 😐


DTU_XaVier
 
Elitebruger
Tilføjet:
16-06-2008 16:29:59
Svar/Indlæg:
2786/120
#11 Det kommer simpelthen an på hvad dine krav er til din PC... For mig handler det om, at jeg skal kunne spille nye spil som producenten ville have de skulle spilles, og det kræver altså en vis investering... Derudover vil jeg hellere købe et dyrt GFX hvert andet år, end et middel-dyrt GFX hvert år 😉
(Det har indtil videre virket med mit 8800GTX, jeg dog først købte i september 2007, fordi jeg var langsom 😛 )...

MVH.
Toke 🙂


hamderD
 
Elitebruger
Tilføjet:
16-06-2008 16:42:42
Svar/Indlæg:
7263/260
God test, og fedt kort jo 🙂


Claus35
 
Elitebruger
Tilføjet:
16-06-2008 16:43:24
Svar/Indlæg:
5410/123
#4 Ja, det må være en fejl i grafen. Jeg vil tro, at det er det antal frames den nåede at køre igennem over hele testen, men det må vi lige have Goa til at bekræfte.


Tenkin
 
Elitebruger
Tilføjet:
16-06-2008 16:45:54
Svar/Indlæg:
3332/33
#12 nu ved jeg jo ikke hvor gammel du er 😛 men jeg synes bare et eller andet sted, at der må være noget andet man kan bruge 4300 på. man kunne bruge 2k på gfx og så 2300 på eksempelvis andre nødvendige ting som udgifter til mad, tøj osv. 🙂

synes bare det er mange penge, men igen, hvis jeg selv havde haft så mange tilovers havde jeg sku os købt sådan et gfx ! 😉


#16
Gom
 
Superbruger
Tilføjet:
16-06-2008 16:46:52
Svar/Indlæg:
359/73
Jeg synes det er en lidt upræcis og biased test hvor det virker som om man gerne vil have 280 GTX til at være hurtigere end det egentlig er. Som Anandtechs væsentligt grundigere test viser, er 9800 GX2 faktisk hurtigere end GTX 280 i stort set alle sammenhænge, hvorfor de også har svært ved at anbefale at man køber kortet. GTX 280 koster jo også omkring 4600, og 9800 GX2 lidt under 3200. For mig at se er spørgsmålet nu mest om man skal tage et 9800 GX2 billigt, eller vente på AMDs Radeon 4870 X2 og se hvad sådan et par kan i CrossFire...

Anandtechs review: http://www.anandtech.com/video...


DTU_XaVier
 
Elitebruger
Tilføjet:
16-06-2008 17:05:29
Svar/Indlæg:
2786/120
#16 Det kan naturligvis også være fordi Anandtech gerne vil pille NVIDIA lidt ned, og derfor ikke har fuld spark på alle heste, for jeg kan GARANTERE at der ikke er gjort noget for at forbedre resultaterne for GTX 280 ifht. de ældre kort... 😉
Det har højst sandsynligvis noget at gøre med, at der er forskel på de to test-setups der er brugt (CPU/RAM/MOBO kan have forskellige indstillinger).
Derudover er der stadig problemerne med hvorvidt en dual-chip løsning er optimal (noget den overhovedet ikke er i mit hoved :sleep: ), og som sagt, hvad kravene til ens HW er (om man f.eks. har plads/PSU til et dual-GPU setup af nogen art)...

#15 Jeg er 19 og nyudnævnt konstabel-elev i forsvaret, så det er ikke fordi jeg svømmer i overskydende indkomst 😉

MVH.
Toke 🙂


Tenkin
 
Elitebruger
Tilføjet:
16-06-2008 17:08:56
Svar/Indlæg:
3332/33
#17 Tomshardware giver også et helt andet blik end her:
http://www.tomshardware.com/re...

jeg blir os 19 her på fredag og er igang med at uddanne mig, lever på su, så derfor synes jeg det er en del penge. 😛


teemuss
 
Overclocker
Tilføjet:
16-06-2008 17:11:15
Svar/Indlæg:
314/36
jeg må indrømme jeg er osse kommet i tvivl har lige nu et 8800 gtx synes i det hele taget det er temmelig forvirrende det her.
en test siget et en andet noget andet o.s.v


DTU_XaVier
 
Elitebruger
Tilføjet:
16-06-2008 17:16:05
Svar/Indlæg:
2786/120
#18 "Vores" test her på siden, har 300Mhz mere at rykke rundt med på CPU'en, hvilket godt kan have noget at sige, når resultaterne ligger så tæt som de gør... Samtidig kan forskellige drivere have noget at sige...
I mit hoved ligger GTX 280 side om side med de tidligere dual-løsninger, og det er godt nok til mig 😉


WAR1OCK
 
Overclocker
Tilføjet:
16-06-2008 17:19:27
Svar/Indlæg:
538/47
hehe godt man skal til usa om et par uger og kan smide et GTX280 i kurven til (kun) 600 USD 😎 men det falder nok hurtigt i pris 🙂


gabbadoo
 
Elitebruger
Tilføjet:
16-06-2008 17:21:01
Svar/Indlæg:
3065/208
#18 Tjek www.kortlink.dk - der er problemer med kommaer i links her på sitet.

EDIT: Linket bliver så til: http://kortlink.dk/tomshardwar...


teemuss
 
Overclocker
Tilføjet:
16-06-2008 17:25:50
Svar/Indlæg:
314/36
jeg har lige fået et chok så den test på toms hardwareguide hvad sker der lige i fsx et 8800 ultra slår et gtx 280 er det en joke eller hvad.jeg er rystet tror squ jeg beholder mit 8800 gtx


Pizzadude
 
Redaktør
Tilføjet:
16-06-2008 17:26:00
Svar/Indlæg:
5363/442
Tror jeg vil snuppe sådan tre til noget SLI 😀


saiot
 
Elitebruger
Tilføjet:
16-06-2008 17:35:10
Svar/Indlæg:
7111/480
kan være jeg har overset det men hvad bruer det i idle alser ikke i load kan være jeg har overset det 🙂


T|Conan
 
Elitebruger
Tilføjet:
16-06-2008 17:39:29
Svar/Indlæg:
452/23
Holy smackerony! Det holder 100 det kort :) Er dog glad for at se at 9800GTX SLI stadig er godt med 😀 Så behøver jeg ikke smide dem ud lige med det samme hehe...

Mvh. Henrik

Hvis man vil se hvad 3 af de der basser kani SLI på et 790i board, så læs nyheden/tråden om kingpin's LN2 sjov.


Johnny
 
Superbruger
Tilføjet:
16-06-2008 17:41:49
Svar/Indlæg:
2127/11
Guru3d er også ude med et rigtigt spændende review af 280: http://www.guru3d.com/article/...

Jeg er ikke varm på strømforbruget, men for dælen hvor er det dog rart at se at Nvidia ENDELIG har taget det lidt alvorligt alligevel, og indført en del forskellige sparefiduser til kortet. About time, men til gengæld tilsyneladende også ganske gennemtænkt.

Egentlig ville man vel ha forventet at et kort der har været så meget hype om, havde givet selv 9800gx2 baghjul så det gjorde noget, men at lige sådan ungefär lige, er nu heller ikke så tosset imo. 280 har 1gb ram og en temmelig stærk kerne, så selv uden dx10.1, skulle man mene at der var grafikkort til et stykke tid der.

Jeg skal ikke ha et. Min økonomi og min foragt for storslugerne forhindrer det. Men indrømmet, det ser spændende ud. Nu mangler vi så at se hvad ATI smider på gaden. Rart at se en reel forskel i ydelse, fremfor de sidste ganges "different name, same shit".


aNker
 
Superbruger
Tilføjet:
16-06-2008 17:42:44
Svar/Indlæg:
740/37
#24
Ja man skulle da være et skarn hvis man ikke lige kunne bruge 3 stk. 😲


NVN_Octeamdenmark
 
Overclocker
Tilføjet:
16-06-2008 17:47:17
Svar/Indlæg:
4/0
Grunden til at Crysis viser flere tusinde fps er at når der køres over 3loops flytter programmet komma 2pladser bagud, så hvis der står 5587.2 fps, er det 55.872 fps istedet. Så det er skam bare en lille bug.

*Edit*
Nå jeg er da vist på den forkerte bruger :)
/noxon


Pizzadude
 
Redaktør
Tilføjet:
16-06-2008 17:51:53
Svar/Indlæg:
5363/442
#29 Mit 7600Gt kører eller let med 6000 fps i Crysis 🤣


Emillos
 
Overclocker
Tilføjet:
16-06-2008 18:02:00
Svar/Indlæg:
14079/622
Selvfølgelig er der ikke fusket med noget som helst. Jeg synes ærgelig talt, at man bør tænke sig om, inden man slynger om sig, med så alvorlige påstande.
Tænk på, at der er brugt forskellige testsetups, der er testet i forskellige ting, og så er der sikkert også brugt en anden driver; alt dette medvirker til, at du på ingen måde kan sammenligne 2 tests.

Kortets ydelse stemmer i øvrigt fint overens med hvad jeg har set på TheINQ og andre steder. Og hvis der er nogen der er uafhængige af NVidia, er det da dem. :yes:


->#25

Det bruger 236W under load.

http://hwt.dk/literaturedetail...


Gilbert
 
Elitebruger
Tilføjet:
16-06-2008 18:03:55
Svar/Indlæg:
4089/252
Kan kun konstatere at det ikke kan betale sig at skifte sit 8800GTX/Ultra ud endnu. Havde nok forventet lidt mere her.


Miccim
 
Elitebruger
Tilføjet:
16-06-2008 18:13:26
Svar/Indlæg:
3233/128
Det er lidt skuffende til prisen m.m.

Håber ati får noget medvind p.g.a. det...


Gripen90
 
Senior Skribent
Tilføjet:
16-06-2008 18:32:02
Svar/Indlæg:
15982/637
GeForce 9800GX2 kortet banker gladeligt videre her. Det føler sig langt fra truet 😀
Igen ser man bare at 3Dmark (vantage) intet siger om kortets ydeevne i spil - meget høje scores men intet at have det i.


saiot
 
Elitebruger
Tilføjet:
16-06-2008 18:36:50
Svar/Indlæg:
7111/480
31# ja men jeg mente i ild alser når den ikke er i load


Gripen90
 
Senior Skribent
Tilføjet:
16-06-2008 19:09:00
Svar/Indlæg:
15982/637
Nu har jeg siddet og læst lidt om GTX280 og GTX260 i div. anmeldelser, og magen til ringe selv kritik skal man ikke lede længe efter. Hvor de fleste skriver at 9800GX2 er en konkurrent til GTX280 så betoner alle de "problemer" der er med SLi, f.eks varme, mere strøm forbrug, cloned memory... så 9800GX2 skal man ikke tage.
Men så senere så skriver de, at folk nok vil tage GTX260 da det koster det halve og så kan man køre billig SLi ! - HALLLOOOOO - så er vi jo tilbage til 0. - dvs man sidder og "svinger 9800GX2" løsningen til, men senere henne i anmeldelserne anbefaler man det samme bare med nyere kort - klaphatte til anmeldere.


gabbadoo
 
Elitebruger
Tilføjet:
16-06-2008 19:36:24
Svar/Indlæg:
3065/208
#32 Jeg tror heller ikke kortet er møntet på at du skal skifte dit kort ud, for det får du vitterligt ikke det store ud af; da får du mere ud af at investere i et ekstra 8800.

Men for den skare der pt. skal ud og investere i fx Nehalem-platformen, der jo lover meget bedre cpu-performance - hvilket i høj grad ligner noget både ATI's og Nvidia's nye grafikløsninger lider af - og for dem der finder det interessant at investere i kortet med henblik på en senere opgradering til SLI (for slet ikke at nævne dem der har godt 8000 kr. at investere i grafik) - må det jo unægteligt have et marked, og en nogenlunde retfærdig pris.

Ydelsen taget i betragtning, synes jeg personligt virker meget cpu-afhængig. I den henseende, er det vel heller ikke tosset af Nvidia, at lave et single-gpu grafikkort, som slår al konkurrencen af vejen... Især ikke hvis de i ærmet formentligt har et dual-gpu kort, som - alle benchs taget i betragtning - vil slå ATI's Crossfire-løsninger af tronen når HD4870X2 kommer. Og det velogmærket UDEN SLI.

At det kan betyde en del for Nvidia at levere et ekstraordinært dominerende single-gpu kort med dual-gpu'en som trumfkort, i en tid hvor netop Intel sprøjter ud med chipsets der understøtter Crossfire, er vel ikke så underligt? Men prisen per CFR (CrysisFrameRate?) er måske en anelse "tosset"..


#38
mbm
 
Elitebruger
Tilføjet:
16-06-2008 19:40:45
Svar/Indlæg:
3746/627
Havde nu forventet mig noget mere af Nvidia´s nye top-kort.
Troede mit gamle 8800 ultra skulle udskiftes, men det bliver hvor det er. I mit PCI-E slot 😀


teemuss
 
Overclocker
Tilføjet:
16-06-2008 19:47:10
Svar/Indlæg:
314/36
tja jeg tror osse mit 8800 gtx godt kan klare det lidt endnu


DTU_XaVier
 
Elitebruger
Tilføjet:
16-06-2008 20:14:40
Svar/Indlæg:
2786/120
Jeg kan ikke se hvorfor folk er så forhippede på at beholde deres 8x00 kort... Der er en ydelsesforbedring på mellem 75 og 100%... Hvis det ikke kan tilfredsstille, så ved jeg ikke hvad kan 😴

MVH.
Toke 🙂


saiot
 
Elitebruger
Tilføjet:
16-06-2008 20:26:19
Svar/Indlæg:
7111/480
40# hvor ser du en forskel på 75-100% 😲


Stigers
 
Overclocker
Tilføjet:
16-06-2008 20:43:48
Svar/Indlæg:
83/4
240 kerner i en gpu i forhold til 4 kerner i en C2D cpu - det rykker...


Stigers
 
Overclocker
Tilføjet:
16-06-2008 20:46:26
Svar/Indlæg:
83/4
Den der ydelsesforbedring på 75-100% vil jeg også gerne have dokumenteret....
Ingen tvivl om at GTX280 chippen sparker RØV ifht. 8xxx chippen, men så stor forskel tror jeg ikke på.


#44
phg
 
Elitebruger
Tilføjet:
16-06-2008 21:05:42
Svar/Indlæg:
1399/43
bare for halvandet år siden betalte folk gladeligt 4-5000kr for et topkort foreks. gav jeg 3500kr pr stk for mine 7800gtx kort og før det 4200kr for mit ATI 800 et eller andet premium edition(har glemt hvad det hed) så kom 8800 gt kortet til billige penge og nu tror folk de kan få foræret deres topkort 😎 ,de himler over prisen, hvis det er et problem så tag for hel..... da et ATI eller et andet kort der passer til jeres pengepung.


#45
mbm
 
Elitebruger
Tilføjet:
16-06-2008 21:14:14
Svar/Indlæg:
3746/627
#40 75%-100% den ser jeg så heller ikke lige.

4000-5000kr for et topkort er ok synes jeg. Det giver jeg gerne.

folk er så glade for deres 8800. fordi det nok er det bedste kort Nvidia til dato har lavet. Forstået på den måde at intet kort har været i nærheden af dets ydelse siden det kom på markedet i 2006. Først nu er der kort der er hurtigere, men ikke så markant så det trænger til en udskiftning.


Tenkin
 
Elitebruger
Tilføjet:
16-06-2008 21:49:25
Svar/Indlæg:
3332/33
hvad kom gtx 260 til at koste egentlig ?

for jeg regner med at udskifte mit gamle 8800gts 320mb her, hvis ati da disker op med noget til den rette pris.


Goaguy
 
Elitebruger
Tilføjet:
16-06-2008 21:55:12
Svar/Indlæg:
3410/199
Først skal I lige vide, at det er gået enormt stærkt med at teste dette kort. Det sketet som last-minute-udvej midt i mit eksamensræs. (Er student om 9 dage).

I mine øjne er kortet stadig en del bedre end fx 9800GX2, da GX2'et i (i mine øjne) med SLi-løsningen bare ikke er tip-top. I skal regne med, at dette er et ENKELTKERNET grafikkort - derfor synes jeg heller ikke med rette, at I kan sætte det op mod de multi-GPU-kort. Og mon ikke Nvidia også kommer med et dobbeltkerne GTX200-kort?

#4 --> Hvis jeg har skrevet average FPS er det vist en fejl :) - Eller også har Noxon ret :D

Jeg tester ikke i very high, da langt fra alle de kort jeg tester kan køre det. Jeg vil gerne kunne sammenligne alle på kryds og tværs - derfor. Desuden skal man da have Vista for very high? Eller er det bare mig?

#9 --> Det er gået MEGET stærkt med at lave den her artikel. Der er muligvis en smutter eller to.

#36 --> Just my point.



Gripen90
 
Senior Skribent
Tilføjet:
16-06-2008 22:58:04
Svar/Indlæg:
15982/637
Som de skriver på Guru3D, så ville GTX280 være mere imponerende at se på, hvis ikke 9800GX2 havde været her. Jeg er ganske vist imponeret over GTX280 ud fra et synspunkt om single-core GPU. De tekniske landvindinger mht at give så meget styrke i een chip der matcher og nogen gange overgår 9800GX2, synes jeg er rigtig flot.
Set ud fra et rent perrformancer-gamer perspektiv, mener jeg bare at kortet har det lidt svært på markedet med 9800GX2 som nu er blevet billigere og stadig i en hel del ting virkelig giver GTX280 kamp til stregen. Men man kan nok formode at 9800GX2 hurtigt ryger ad markedet for at holde priserne oppe.

Mit største ankepunkt er bare forsøget på at nedgøre 9800GX2 pga det er et dual GPU kort ! Først forguder man Dual GPU kort men så snart der kommer single chip der matcher det, så skælder man det ud og jeg ved ikke hvad - men det skal ikke undre mig der igen kommer rosende ord når dual GT200 kortet kommer.
SLi fungerer fremragende i mangt og meget.... så at lade det falde på det er et ringe argument - største svaghed er "cloned memory".

Ja GTX280 er et imponerende kort rent ydelses mæssigt - men det falder på det punkt at selv de nuværende kort i SLi næsten matche kortet til billigere penge (9800GX2 kan overmatche det i ca 50/50 tilfælde). Jaja måske koster SLi lidt mere watt, men hvis det virkelig var en reel bekymring i målgruppen her, ja så sad folk ikke konstant og spurgte til råds om nye PSU'er mv.


Clintin
 
Superbruger
Tilføjet:
16-06-2008 23:03:21
Svar/Indlæg:
1317/46
#47, det kunne være dejligt hvis der kom average fps i stedet, da det giver et billede af om det/de pågældende kort kan køre et spil under de givne forudsætninger.

Hvis der er nogen der går ud og bruger 4000kr på et nyt grafikkort i morgen, så er de totale tåber, det er jo ikke lang tid til ATI's svar, og det kunne måske være interessant at se hvad ATI's nye kort faktisk. Gætterier er ikke meget værd. Personligt havde jeg forventet at nVidia's kort var noget hurtigere.


Erroneus
 
Elitebruger
Tilføjet:
16-06-2008 23:47:23
Svar/Indlæg:
673/19
#42

Argh det er ren Nvidia PR BS at kalde det 240 cores. Lige pludselig skal de kalde deres shaders cores, det jo super ømt, når de "cores" ikke kan bruges til x86 arkitekturen som cores i en cpu kan, men skal bruges til CUDA arkitekturen,


Timozzdk
 
Elitebruger
Tilføjet:
17-06-2008 01:48:59
Svar/Indlæg:
1636/115
48# Det jo langt fra alle der sidder med en sli platform. Det er billigere at købe 9800gx2 til sit intel chipset board end at købe et godt sli board og 2 gfxkort til at køre sli.


MadsH
 
Elitebruger
Tilføjet:
17-06-2008 05:29:21
Svar/Indlæg:
1915/57
#46 sig lige til så når du gør det.Så er jeg interesseret i dit nuværende kort.Har et magen til og kunne godt tænke mig at prøve at køre SLI 🙂 Hvis prisen er rigtig selvfølgelig 😉


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2008 08:31:17
Svar/Indlæg:
15982/637
#51: Det er jo heller ikke det, der er pointen. Kortet blegner stadig iforht. ydelsen når man tager de ældre kort og sætter i SLi. Selvfølgelig sidder ikke alle alle med SLi boards, men med lidt der roterer i toppen, vil man kunne se andre alternativer end GTX280 hvis det skulle være, og har du muligheden for SLi ja så er GTX280 ikke så interessant som enkeltstående kort f.eks hvis du sætter 8800GTS/9800GTX i SLi.


Stigers
 
Overclocker
Tilføjet:
17-06-2008 09:07:40
Svar/Indlæg:
83/4
"Kortet blegner stadig iforht. ydelsen når man tager de ældre kort og sætter i SLi."

Hvordan er det lige du kan sammenligne 2 kort med 1?????


Goaguy
 
Elitebruger
Tilføjet:
17-06-2008 09:14:54
Svar/Indlæg:
3410/199
#53 --> Der er ingen tvivl om, at man til prisen kan få et meget bedre pris/ydelse-forhold ved at køre ældre kort i SLi eller vælge et 9800GX2. Imidlertid er det ikke alle spil og programmer der understøtter SLi - og der var da også nogle af de kørte tests, hvor GX2'et får tæsk.

Det er også derfor, at kortet kun får "2" i kategorien "pris". Men at kortet kun er enkeltkernet giver stadig mulighed for med SLi at få en hidtil uset ydelse, som man ikke på samme måde (i mine øjne - ret mig hvis jeg er helt gal på den) kan få ved to GX2'ere i SLi. Som Quad-SLi artiklen her på HWT også viser, er der ikke man spil, hvor det fuld understøttes, så man får slet slet ikke 4xden ydelse, som kort nr. 2 ellers ville give i alm. SLi.

Jeg ved godt, at det var kringlet formuleret. 😛



#56
ph1
 
Superbruger
Tilføjet:
17-06-2008 10:35:23
Svar/Indlæg:
21/0
mht. ydelsen, tjek evt. ydelse pr. transistor, kortet har 2,3 gange så mange transistorer som et amd 3870, og er en generation nyere, så umiddelbart syntes jeg ikke at dets ydelse er revolutionerende, det virker på mig som om at nvidia har udviklet det her kort lidt lala mens de har koncentreret sig om andre projekter (chipset, mobiltelefoner etc.)

specielt undrer det mig et de ikke har skrumpet kernen, alle andre er skiftet til 45 el. 55 nm


Nightcover
 
Overclocker
Tilføjet:
17-06-2008 15:21:20
Svar/Indlæg:
620/11
De har brugt så meget tid på at opgradere diverse non-gaming teknologier på deres kort. De forkusere i øjeblikket så meget på, hvad deres gpu kan gøre bedre end intels Quad-cores, og udvikle CUDA og få folk til at bruge det i deres programmer. GPGPU ftw.


saiot
 
Elitebruger
Tilføjet:
17-06-2008 20:22:07
Svar/Indlæg:
7111/480
er der slet ingen der kan svare på hv ad kortet bruger når computeren bare står i windows det syns jeg pasonligt er en meget vekdi ting med et grafikort som det her


Tenkin
 
Elitebruger
Tilføjet:
17-06-2008 20:38:04
Svar/Indlæg:
3332/33
#58 det bliver der svaret på i #31 🙂


saiot
 
Elitebruger
Tilføjet:
17-06-2008 20:48:56
Svar/Indlæg:
7111/480
59# nej der bliv svaret hvad det brugte i load
og kortet er neppe i load når det bare såtr i windows elelrs bliver det sku dyrt 😛


Tenkin
 
Elitebruger
Tilføjet:
17-06-2008 21:01:46
Svar/Indlæg:
3332/33
#60 oh sry 🤣 min fejl 😛


Goaguy
 
Elitebruger
Tilføjet:
18-06-2008 02:49:46
Svar/Indlæg:
3410/199
#60 --> Det er opgivet af Nvidia og står i afsnittet "teknologi/innovation":

- Idle/2D power mode (ca. 25W)
- Blu-ray DVD playback mode (ca. 35W)
- Full 3D performance mode (varies - worst case TDP 236W)
- HypridPower mode (effectively 0W)


Læs det afsnit, som du tydeligvis er sprunget over, og du får dine svar. Der står mere, end jeg lige har gengivet ovenfor.


[G.N.U.]
 
Elitebruger
Tilføjet:
18-06-2008 04:09:55
Svar/Indlæg:
2175/21
avs 236w, der skal sq flyttes noget luft for at de ikke brænder op i sli..


Clintin
 
Superbruger
Tilføjet:
18-06-2008 14:32:49
Svar/Indlæg:
1317/46
#63 ellers kan nvidia lancere en ny type kølere til deres grafikkort som både kan levere god grafik og en funktion til at varme vandet til kaffen. Problemet er selvfølgligt at når kortet kører under full load så skal der drikkes meget kaffe, hvilket kan forstyre spillet!


Stigers
 
Overclocker
Tilføjet:
18-06-2008 15:05:56
Svar/Indlæg:
83/4
#64

LOL 😛


Emillos
 
Overclocker
Tilføjet:
22-06-2008 14:06:51
Svar/Indlæg:
14079/622
Så er der lidt flere benchmarks til jer.
Hope you like. 🙂


zound
 
Superbruger
Tilføjet:
22-06-2008 14:19:42
Svar/Indlæg:
537/9
#47, det der med at dual kort ,håber godt nok de for lavet noget så deres strøm forbtug ryger ned, eller's et dual kort med en tdp på 472 watt, sygt!


Stigers
 
Overclocker
Tilføjet:
22-06-2008 14:26:18
Svar/Indlæg:
83/4
En ting der undrer mig...
I Xp er der testet i 3D mark 03 og o6
I Vista er der testet med 05, 06 og Vantage

I mine øjne giver det ingen mening,...


Emillos
 
Overclocker
Tilføjet:
22-06-2008 14:31:33
Svar/Indlæg:
14079/622
->#68

Hvorfor giver det ingen mening for dig?
Der er også testet i helt andre spil. Det er jo på ingen måde meningen, at de 2 benchmark-sektioner skal kunne sammenlignes.
Jeg har droppet 3dmark03, da jeg mener det er forældet. Men hvis du er interesseret i en score, kan du da sagtens få den: 52828 - og så kan du sammenligne her:
:yes:


hamderD
 
Elitebruger
Tilføjet:
22-06-2008 16:05:21
Svar/Indlæg:
7263/260
Fedt kort stadig 🙂


teemuss
 
Overclocker
Tilføjet:
22-06-2008 16:51:32
Svar/Indlæg:
314/36
jeg har købt et fik det dog med lidt rabat hehe men er enig det rykker virkelig vildt intet jeg har prøvet har endnu tvunget det i knæ i 1920x1200 (har dog ikke testet crysis) så jeg er meget glad for mit nyr gtx 280.
fik så osse 15807 point i 3dmark 2006 med det og og en e8400 clocket til 4ghz ganske pænt synes jeg.


saiot
 
Elitebruger
Tilføjet:
22-06-2008 19:37:58
Svar/Indlæg:
7111/480
hvor kan BadaBoom Media Converter den prøve udgave prøves fra eller købes eller dure det ikke til 8800gt 🙂

edit ja 8800GT kan bruges og en masse andre 😀 og det er vis ikke udgivet enu http://www.badaboomit.com/blog...


Stigers
 
Overclocker
Tilføjet:
22-06-2008 20:27:46
Svar/Indlæg:
83/4
#69
Nogen foretrækker vista andre xp...
KUnne være rart med en så nogenlunde ens benchmark, da den ellers ikke kan bruges til ret meget imo.


Emillos
 
Overclocker
Tilføjet:
22-06-2008 21:11:39
Svar/Indlæg:
14079/622
->#71

Ja det er nu et meget fint kort. Hatten af for at du smider de penge kortet koster. 🙂


->#72

Tror desværre kun det er forbeholdt pressen. Men nVidia har kun uddelt trial-versioner der rent praktisk ikke kan bruges til det store. Og ja, i princippet kan alle nVidia grafikkort fra GeForce8 og opefter bruges. Dog kan det være, at nogle low-end kort ikke vil understøtte det, da de ikke er kraftige nok.


->#73

Det er da en underlig kritik du kommer med. Selvfølgelig kan de bruges - det er jo ikke en XP vs. Vista-artikel, som du øjensynligt efterspørger.
Ydelsen i XP ligger typisk en anelse højere end Vista, men det er ret ubetydeligt: www.kortlink.dk/extremetech/5f...


Stigers
 
Overclocker
Tilføjet:
22-06-2008 21:39:51
Svar/Indlæg:
83/4
Emillos> Må man nu ikke sige sin mening?????

imo = In My Opinion.




hamderD
 
Elitebruger
Tilføjet:
22-06-2008 22:01:34
Svar/Indlæg:
7263/260
#75

Selvfølgelig må man da det?.


Goaguy
 
Elitebruger
Tilføjet:
22-06-2008 22:27:58
Svar/Indlæg:
3410/199
#75 --> Du skulle gerne kunne finde alle de resultater du efterspørger i denne nyhed: http://hwt.dk/newsdetails.aspx...

Som jeg ser det er der heller ingen grund til at lave sammenligningsbenchmark. At vi både tester i XP og Vista denne gang er et særsyn, og fordi vi fik en efterspørgsel på benchmarks af CUDA, som ikke understøttes af XP, som jeg bruger. Derfor røg kortet videre til Emil.

.. og selvfølgelig må du gerne have din egen mening. 🙂


Emillos
 
Overclocker
Tilføjet:
22-06-2008 22:43:26
Svar/Indlæg:
14079/622
->#75

Jo. Du siger din mening, mens jeg giver udtryk for min.
Du synes mine benchmarks er ubrugelige, og det kan jeg ærlig talt ikke forstå; var jeg af samme overbevisning, ville jeg ikke have lavet dem. 🙂

Hvis du kunne komme med en uddybende forklaring på, hvorfor du ikke kan bruge benchmarks'ene til noget, ville det være en anden sag. Er det tilfældet, må du da hellere end gerne ytre den. :yes:


zzolio
 
Elitebruger
Tilføjet:
23-06-2008 07:20:03
Svar/Indlæg:
431/26
#78

i bruger ikke samme hw i xp som i vista og kan der for ikke til at sammen lige


Goaguy
 
Elitebruger
Tilføjet:
23-06-2008 09:13:02
Svar/Indlæg:
3410/199
#79 --> Det er fuldstændig rigtigt 🙂


lerbech
 
Superbruger
Tilføjet:
23-06-2008 10:15:07
Svar/Indlæg:
186/28
#79 korrekt men var hardware ens i de 2 maskine så ville det jo være forskellen i software der medførte at man ikke kunne sammeligne benchs lavet på den ene maskine og på den anden. når man tester ting så kan der være så mange småting der gør at man faktisk ikke kan sammenligne 2 tests med hinanden.


[G.N.U.]
 
Elitebruger
Tilføjet:
24-06-2008 02:31:27
Svar/Indlæg:
2175/21
udover det, så er der ikke det vilde marked for den rent logisk...for 90% af gamerne derude kan et 8800Gt til 1200kr dække behovet alligevel....derfor virker prisen lidt ude i hampen.