Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: n/a
DK distributør: n/a
Produktet er venligst udlånt af: www.interdata.dk
Produktet distribueres i DK af: www.interdata.dk
Link til producentens website: www.GeCube.com

3Dmark03, 05 og 06


3Dmark er en specifik test specielt tilat teste hardware og især grafikkort med. Futuremark står for produktet ligesom en masse andre test-programmer. Der findes ingen spil ligesom 3Dmark. 3Dmarks vigtigste egensskab er at teste moderne hardware i fremtidens krævende grafik. 3Dmark har tidligere fået meget kritik for at være styret af driveroptimeringer. Dette er til en vis grad korrekt. Nogle mener det er skidt, men jeg er af den flok der mener at grafikchip-producenter skal have lov til at optimerer deres drivere til 3Dmark, ligesom til alle andre spil. Det kan kun give brugeren bedre ydelse, og producenterne for ofte at hører for det, hvis det går ud over billedekvaliteten, som da XGI lavede deres Volari Duo-kort med en driver med virkelig dårlig billedkvalitet. Jeg bruger de tre nyeste test.

  • 03 er generelt kendt for at være meget grafikkortkrævende, og understøtter alle grafikkort med støtte for DirectX7 og derover (dvs.alle Geforce-kort og radeon-kort (undtagen Radeon7000 og) Samtidig var det den første 3Dmark med test til DirextX9 og shader2.0-egenskaber.

  • 05 var den første 3Dmark udelukkende til DirectX9-kort og med optimeringer til den udvidede directX9 med shader3.0-egenskaber.

  • 06 er den nyeste 3Dmark og kan bruges af alle grafikkort med DirectX9-egenskaber. Men halvdelen af testen bruger kun shader3.0, så for at få mange point er et grafikkort med shader3.0-understøttelse en nødvendighed.


    I 3Dmark03 der er kendt for at være en af de mest grafikkort-krævende test på markedet, ser vi at kortet ydelse ligger på et lavt niveau. Nu skal vi også huske at X1300absolut ikke er rettet mod gaming, men dog er jeg skuffet, da jeg efterhånden føler at low-end-grafikkort ikke rykker sig meget. Der kommer mængder af egenskaber men personligt synes jeg ikke ydelsen er steget ret meget siden Geforce4MX og Radeon9000-serien.



    I 05'eren ser vi samme tendens, lav ydelse.



    I 06 ser vi så noget meget få low-end-grafikkort kan, nemlig at fuldføre hele testen. De virkelig flotte Shader3.0-tests bliver dog renderet i et meget lavt tempo, men det lader sig gøre. nVidia's low-end-kort har kunne gøre dette siden Geforce6200 udkom, men der er stadig lidt kritik af det. De fleste spil slår nemlig disse tunge shader3.0-egenskaber fra når man skruer ned for detaljerne, hvilket man ofte er nød til med disse low-end-kort. Det kan derfor være svært at forstå hvorfor kortet er udstyret med det. Men det kan til dels skyldes at de avancerede video-egenskaber har brug for shaderne, men skyldes nok også en del PR, da det lyder flot at have den nyeste teknologi helt ned i low-end.
  • DTU_XaVier
     
    Elitebruger
    Tilføjet:
    16-02-2006 03:05:48
    Svar/Indlæg:
    2786/120
    Vil da ikke sige ydelsen har stået stille.. Kan da huske at mit gamle 5600XT var nede på omkring 2000 points, og det slår det her da :00
    Så siden Radeon 9000 osv. vil jeg ikke sige, men kortet er jo heller ikke "bygget til ydelse" :)
    Rigtig fin tests, dog ikke helt "fair" modstandere :e

    MVH.
    Toke :)



    JacobHL
     
    Elitebruger
    Tilføjet:
    16-02-2006 20:20:54
    Svar/Indlæg:
    1776/116
    Syntes lidt du fucker op på siden med strømforbrug, hvad er det helt præcis forskellen er på kWh og Watt, ud over at den ene er energi, og det andet er effekt :p.

    Bortset fra det så hænger de unægteligt sammen, du kan ikke sige at det ser helt anderledes ud med watt forbruget, i forbindelse med kWh forbruget.

    Syntes du skulle måle Watt forbruget ved først at måle hvor computeren brugte onboard VGA, og derefter brugte grafikkortet, og så trak de to ting fra hinanden. Så havde du selve grafikkortets strømforbrug.



    Woodgnome
     
    Elitebruger
    Tilføjet:
    17-02-2006 01:57:30
    Svar/Indlæg:
    1888/560
    Watt er peak strøm og kWh er forbruget over hele testen.



    red_martians
     
    Moderator
    Tilføjet:
    17-02-2006 09:50:00
    Svar/Indlæg:
    7881/1165
    Peak beskriver meget kort hvor meget strøm kortet bruger under stress. Peak fortæller dig hvilken strømforsyning du burde anskaffe. Idle fortæller hvad computeren bruger når den bare står stille. :)
    At systemmet med et 7800GTX kan bruge helt op til 260w (hvilket er 10w mere end et X850XT) Men kortet bruger samlet set mindre strøm end X850XT. Grafikkortene kan sagtens pludseligt bruge langt flere watt end de bruger i gennemsnit, og derfor er en større strømforsyning mere nødvendig. Kwh beskriver altså mere et gennemsnit. Her kan systemmet med et RAdeonX1900XT i crossfire bruge fra 200w helt op til næsten 500w alt efter hvad de bliver udsat for. De siger altså intet om det reelt strømforbrug.




    JacobHL
     
    Elitebruger
    Tilføjet:
    17-02-2006 13:29:58
    Svar/Indlæg:
    1776/116
    #4, selvfølgelig, men syntes stadigvæk det er ret underligt at dele det op i kWh og Watt når det egenlig bare er to sider af samme sag. Du kan jo sagtens beskrive gennemsnits forbruget ved Watt, samt peak. Jeg ser ingen grund til at blande kWh ind i det.



    red_martians
     
    Moderator
    Tilføjet:
    17-02-2006 19:53:52
    Svar/Indlæg:
    7881/1165
    #5: Jeg skal overveje det :) Hvad med noget i retningen af et skema med: lowest/gns idle 10min./gns game 10min/peak ?? :)



    JacobHL
     
    Elitebruger
    Tilføjet:
    18-02-2006 00:31:02
    Svar/Indlæg:
    1776/116
    Sounds great.. Bare husk at kør nogle tests med onboard VGA først, så du kan se hvad selve kortet trækker.



    red_martians
     
    Moderator
    Tilføjet:
    18-02-2006 11:17:01
    Svar/Indlæg:
    7881/1165
    #7: den vil faktisk ikke være så godt, for selv et integreret-grafikkort trækker strøm og især et onboard, og jeg aner ikke hvor meget... Desuden har jeg ikke noget onboard/integreret grafikkort på det bundkort jeg tester med :) Det bedste er at vise hvad et grafikkort der trækker lidt strøm sammenlignet med et der trækker meget. Og et integreret grafikkort trækker næsten med garanti ligeså meget som de mindste til PCI-e da de næsten er ens. f.eks. Geforce 6100/6150 og Geforce6200TC og X200 og X300HM. I tilfældet med Geforce6100 og 6150 vil forskellen helt sikkert være til stede, da 6150 f.eks. har flere udgange, højere frekvensner og flere egenskaber. Den vil jeg ikke kun regne med. Det eneste jeg måske kunne gøre er at måle direkte på grafikkortet, hvilket ville være næsten umuligt jo mindre man er fag-tekniker.



    Woodgnome
     
    Elitebruger
    Tilføjet:
    18-02-2006 18:56:30
    Svar/Indlæg:
    1888/560
    #7 jeg synes det er en helt fair opdeling, idet peak strømforbrug på sin vis ikke siger så meget om hvad kortet egentlig forbruger. Det sluger jo ikke maks. strøm konstant og for folk der rent faktisk tænker over strømforbruget kan peak forbruget bruges til absolut ingenting. Det er også gennemsnits strømforbruget, der siger mest om hvor meget varme kortet afsætter.

    #8 hiv kortet ud og start en omgang folding via Remote Administrators kommandoprompt. Det skal nok kunne vise hvad systemet trækker på toppen uden GFX. Bare huske at sætte BIOS til at ignorere alle fejl i boot. Let.dk 8)




    red_martians
     
    Moderator
    Tilføjet:
    18-02-2006 23:41:13
    Svar/Indlæg:
    7881/1165
    #8: n¨å du komemr til djævleøen næste gang kommer du lige forbi og viser mig hvordan..... Der er jeg stået af uden fysisk hjælp :)



    Emillos
     
    Overclocker
    Tilføjet:
    19-02-2006 11:39:11
    Svar/Indlæg:
    14079/622
    Det er da et fint lille grafikkort :P..

    Men prisen skal også være ret lav, før det er interessant. Kun 64-bit ram...puha ;)
    Men det havde sikkert været spas at lege med noget v-modding på kortet :)