Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: HIS
DK distributør: HIS

Test

 

 

 

Følgende testsetup/maskine er benyttet til testen af kortet:

        AMD Dragon platform
  • Cooler Master HAF-922 medium tower kabinet med 2 x 200mm blæsere og 1 x 120 mm blæser
  • Enermax Galaxy 1000 Watt PSU med 2 x 8-pin PCI-E og 2 X 6-pin PCI-E strømstik
  • FoxConn DigitaLife A79A-S AM2+ motherboard med AMD 790FX chipset
  •  BenQ 26" fladskærm - 60/59 Hz - max. opløsning 1920x1200 via HDMI eller DVI-I, med højttalere 
  • Zalman CNPS 9500 AM2+ low noise køler
  • AMD Phenom II AM2+ Z940 Quad Core 3GHz CPU
  • 2 X Kingston HyperX 2 gigabyte RAM-klodser – DDR-2 1066 (4 gigabyte RAM)
  • 1 X Maxtor 200 gigabyte, 7.200 RPM 16 MB cache harddisk, SATA-1
  • 1 x Western Digital GreenPower HDD - 500 gigabyte, 7.200/5.400 RPM 16 MB cache, SATA-2.

 

Der er brugt et eksternt professionelt KWh-meter fra elektrikeren til måling af det totale strømforbrug på testmaskinen og dennes monterede grafikkort, til test og referencetests. Jeg har valgt, at bruge et professionelt Watt-meter der måler hele maskinens strømforbrug, frem for at måle grafikkortenes da disses afgivelse af varme har stor betydning for hele maskinens samlede strømforbrug. 
 
Software benyttet:
  • OS: Windows Vista Home Premium 64-bit SP2, fuldt opdateret
  • OS: Windows 7 Enterprise 90 Day Trial (til kørsel af Heaven benchmark)
  • Grafikkortdriver 1: AMD/ATI Hotfixed driver til HD5970 Hemlock (http://support.amd.com/us/kbarticles/Pages/GPU37-driver-for-ati-radeon-hd-5970.aspx
  • Grafikkortdriver 2: NVIDIA Driver 191.07  
  • Chipsætdriver: Seneste tilgængelige til AMD 790FX
  • OC-tool/værtøj: AMD/ATI OverVolt Tool

 

Testsoftware:

  • 3DMark Vantage 
  • Stalker:Call of Pripyat DirectX 11/10.1 benchmark tool
  • Stalker:Clear Sky DX10.1 benchmark tool
  • Unigine Heaven benchmark version 1.0 (kørt på Windows 7) 
  • Unreal Tournament 3 Benchmark tool -  der er benyttet DM-Sanctuary map, 12 bots, sound, full screen, max. details, DX10 
  • Devil May Cry 4 DX10 benchmark – max./super settings, MSAAx8
  • Furmark 1.7.0 OpenGL 3.2 benchmark tool 
  • Call of Juarez DX10 benchmark tool
  • World of Warcraft: Wrath of The Lich King – Ultra settings, max. camera distance macro

 

Testmæssigt er der valgt Windows Vista 64-bit for, at udnytte alle 4 gigabyte RAM. Samtidigt er Windows Vista blevet valgt, da vi i vore tider tester DX10-grafikkort og for mig giver det ikke meget mening, at teste på Windows XP længere, med DirectX 9.0c. Jeg ville givet få nogle vilde resultater, men jeg er sikker på, at I alle gerne vil se tal fra DirectX 10.1 benchmarks og spil. World of Warcraft er blevet medtaget i testen, selvom dette langt fra er et DirectX 10 spil. Men da det er verdens mest brugte spil, udover Sims 3 synes jeg ikke det kan undlades. Og vi kan da også se, at resultaterne med et moderne grafikkort i WoW ligger ganske tæt op ad de resultater der gives i Windows XP SP3, selvom der er skiftet til et meget mere krævende 64-bit operativsystem. Og WoW trækker tænder ud, med den opløsning og indstilling jeg har brugt i denne deltest. Samtidigt har jeg valgt Windows Vista 64-bit med SP2, da SP2 er udkommet for ikke så længe siden - derfor og jeg tænkte det kunne være interessant for Jer læsere (samt mig selv), at se hvad Microsoft har fået indbygget af optimeringerne denne gang. Som bekendt virkede Windows XP ikke helt efter hensigten før SP2 udkom - og SP3 var sidste finpudsning og optimering. Og som vi alle ved rammer Windows 7 snart markedet, så det er tvivlsomt, om der kommer en SP3 til Windows Vista i den nærmeste fremtid.


Forbehold der skal tages i testsammenligningerne!:

Gigabyte GTX-295 kan ikke køre med DirectX 10.1-udvidelserne, da GTX-295 GPU'erne ikke understøtter dette; men denne er derimod i stand til at køre med PhysX teknologien NVIDIA er ene om at udbyde. Og med OpenGL 3.2, hvor AMD/ATI kører med OpenGL 3.1. Dette er medvirkende til, at Gigabyte GTX-295 scorer højt i 3Dmark Vantage, som understøtter PhysX.



Her er et sæt grafer over hvordan HiS HD5970 2GB yder, set i sammenligning med 3 andre relevante referencekort i en række forskellige relevante benchmarks. På disse grafer betyder alle tallene, at jo højere resultat der er opnået, desto bedre ydeevne har kortet:

 

3Dmark Vantage:

Seneste benchmarker fra finske FutureMark 3Dmark Vantage - finnerne kan andet, end lave gode fiskeknive og woblere. Vantage er en ren DirectX10 benchmark, der ikke er bagudkompatibel med DirectX 9.0c. Derfor er Windows Vista eller Windows 7 eneste mulighed for afvikling af testen. Vantage er flot, at se på, men samtidigt også ekstremt hårdt mod grafikkortene. Stilen er ændret lidt en mere cartoon-agtig type - hvorfor vides ikke. Jeg foretrækker selv naturtro tests, som Call of Juarez.. Samtidigt kan jeg ikke se , hvorfor der er inkluderet CPU-tests, når det det drejer sig om, er grafiktestning. Hvorom alting er, lad os se hvordan kortet klarer sig i denne test:

 

 

 
Vi ser her, at HiS HD5970 ligger helt i toppen af ALLE de testede kort med ekstremt flotte resultater. Selv Gigabyte GTX-295 render AMD/ATI fra med næsten syvmileskridt. At Gigabyte GTX-295 scorer så højt, som det gør i "HIGH"-deltesten skyldes udelukkende, at dette kan gennemføre 3Dmarks PhysX deltest. Denne teknologi understøtter AMD/ATI altså ikke. Skal vi sammenligne HiS HD5970 med de 3 andre referencekort så vinder HD5970'eren suverænt denne test og ligger lidt over AMD/ATI referencekortet (ikke anført/vist på denne graf).
 
Stalker:Call of Pripyat:
Stalker:COP benchmark er et DirectX 11 benchmarktool fra GSC Game World i Kiev, Rusland. Firmaet står bag STALKER:Shadow of Chernobyl, STALKER:Clear Sky og STALKER Call of Pripyat. Denne benchmark er baseret på sidstnævnte og presser gennem 4 deltests grafikkortenes evner til det yderste. De 4 deltests består af en test, hvor grafikmotoren kører om dagen, en om natten, en i uvejr med regn og torden og mange reflektioner i materialer og en i høj solskin. Dette sikrer, at grafiktesten bliver yderst omfattende, da alle kortets evner testes igennem. Da testen kører under alle de forhold man vil møde i et spil, man spillede synes jeg det er en af de mest retvisende grafiktests der findes pt. I denne test er højere FPS bedre, end lavere. I kan se resultaterne af denne deltest herunder - dog har jeg kun indsat resultaterne fra testen kørt i Ultra Mode. Dog er medtaget de små grafer for hhv. opløsningerne 1920x1200 og 1680x1050, all settings = max (hvilket AMD anbefaler i deres testvejledning). Testene er dog også kørt med og uden MSAAx4 slået til. I kommer desværre til, at se på lidt mange billeder, da jeg stadig ikke har nået, at lægge alle resultaterne sammen i en kæmpegraf endnu. Vi lægger ud med det største først:

1920x1200, MSAAx4:
 
1920x1200:


1680x1050, MSAAx4:
 
1680x1050:
 

For lige at perspektivere sagen er her graferne for Gigabyte GTX-295 1.792, DirectX 10.0 modus, til sammenligning:
1920x1200, MSAAx4:
 
1680x1050, MSAAx4:
  
 
For en god ordens skyld tager vi lige også to grafer for HiS HD5870 1GB:
1920x1200, MSAAx4:
  
1680x1050, MSAAx4:
 
Og her ser vi igen kun én ting - og det er at AMD/ATI giver baghjul til GTX-295 og HD5870. Dog ikke så meget til HD5870, som det gør det til GTX-295. For 25 FPS i DX 10 modus er jo direkte ynkeligt - for at at sige det mildt - også selvom der er benyttes setting MSAAx4 og "For A-tested objects". 
 
Unreal Tournament 3 Benchmark tool:
Der er ikke så meget, at sige om UT3-testen. Jeg har valgt UT3 fordi den fra starten af blev bygget optimeret til DirectX 10.0. Med patch er der support for DirectX 10.1. Og denne test er udvalgt fra benchmarkportfoliet fordi rigtigt mange spil der bruges i dag og som stadig frigives, er baserede på netop UT3's grafiske motor. Der er testet med manuelle settings til absolut højeste kvalitetsindstillinger. Vi får høje tal, da spillets grafiske elementer ikke længere er hypermoderne. Men ingen siger vi skal svælge i små tal fra ekstremtests hele tiden, vel? :) Og i netop denne test kan vi se, at det er meget tæt løb mellem alle kortene.
 

 
Graferne her giver lidt stof til eftertanke. For vi kan her se, at HiS HD5970 ikke løber fra Gigabyte GTX-295, men ligger lidt under HiS HD5870 - selvom dette har 1GB større framebuffer og to GPU'er, mod HiS HD5870's ene GPU og ene GB RAM. Forskelsmæssigt ligger HD5870 derfor procentvis en lille smule over HD5970 i to deltests. Men dette skyldes helt sikkert, at driveren benyttet er en betaversion, eller UT3's engine lettere kræsen.
  
Devil May Cry 4 - Scene 4:

Devil May Cry 4 er et spil der brillerer, ved at findes til både PS3, Xbox360 og PC. Spillet er  i sig selv meget flot lavet grafisk, selvom det er flere år gammelt. PC-versionen udkom i midten af 2008 og er grafisk forbedret i forhold til konsoludgaverne. Grunden til jeg har valgt DMC-4 er fordi den dels findes i en automatisk benchmarker og dels fordi den stadig formår, at presse kortene til det yderste. Samtidigt kan den køre både DirectX 9.0c og DirectX 10, hvilket gør den til en benchmarker der sammen med UT-3 kan bruges på både Windows XP og Windows Vista. Før nogen spørger så er DMC-4 benchmarken opdelt i 4 scener der gennemspilles på PC'en over ca. 15 minutter. Herefter gives en FPS-resultat per scene og en rank, da DMC-4 opererer med sjove ranks. For eksempel hedder den højeste rank "S - Battle foes with Smokin' Sick Style". Det er måske meget sjovt, men lidt for "porno" til mig. Jeg har derfor kun udvalgt Scene 4, der er den grafisk mest krævende og indsat resultaterne i grafen nedenfor.
 
 
 
Og her ser vi så noget rigtigt interessant igen - her spæner AMD/ATI HD5970 fuldstændigt fra alle de andre testede kort - og det helt vildt endda.  HiS HD5970 vandt 3DMark Vantage-testen og det vinder også DMC-4 testen med voldsomme resultater. Dette kan undre lidt, at netop UT-3 grafikmotoren ikke ydede bedre på HD5970, end på HD5870, men den er ikke just er optimeret til den topmoderne hardware der sidder på HiS HD5970.

FurMark 1.7.0:


FurMark er en meget brugt benchmarker på flere forskellige testsider - og det med god grund. For FurMark indeholder både en benchmarker, samt en burn-in/stability testfunktion. Den kan endvidere tage screenshots undervejs ved at trykke på F9, hvilket er meget praktisk. Samtidigt skriver den løbende en temperaturgraf over GPU'ens varmetilstand og det er endnu et plus ved, at benytte denne test. Ydermere er det min testsuites eneste OpenGL-benchmark og derfor den eneste der siger noget om, hvor godt producenterne har integreret OpenGL optimeringer i GPU'erne. Og dette er vigtigt, at vide for dem der kører Linux, eller anden Unix eller har brug for at rendere OpenGL professionelt i applikationer, hvor selve renderingen smides ned på GPU'en. Oveni så er FurMark klart den benchmarker der brænder grafikkortet allervarmest hurtigst muligt. Og det er også en fordel, når man skal finde et grafikkorts præcise smertegrænser for overclockning. Desuden er FurMark en OpenGL 3.2 benchmark og da GTX-295 kan køre OpenGL 3.2, mens AMD/ATI-kortene kan køre OpenGL 3.1 er denne test valgt udfra det parameter for, at kunne give en retvisende og valid sammenligning. Dette er også gjort udfra, at da jeg testede HD5870 -i sin tid - med FurMark 1.6.5 gav den på FPS præcis samme resultat, som i version 1.7.0 hvilket overraskede mig meget. Normalt plejer AMD/ATI at tabe OpenGL-testene kraftigt til NVIDIA. Men noget tyder på, at AMD/ATI's ingeniører har været på overarbejde mht. OpenGL-sektionen i denne GPU. 

Vi kan her kun hæfte os ved én enkelt ting iflg. nedenstående graf  - og det er, at i OpenGL-testen der vinder HiS HD5970 igen over Gigabyte GTX-295 og HiS HD5870. AMD/ATI-kortene er simpelthen blevet voldsomt forbedret på OpenGL-siden i forhold til 4000-serien. Da dette er testens eneste OpenGL benchmark har vi desværre intet andet, at sammenligne med. Men jeg finder stadig FurMark kommer til sin ret i denne test. Den finder i hvertfald ret hurtigt smertegrænserne for kortets overclockningsevner og har før vist den tydelige forskel der var imellem AMD/ATI og NVIDIA indenfor rendering af OpenGL. Her er HiS HD5970 foran med hele 115% større ydelse i OpenGL, end GTX-295! (beregnet udfra max. værdien).
 
 
 
 
Call of Juarez: 
Call of Juarez er et af de få spil der er skrevet til direkte, at udnytte flere CPU-kerner end to. Jeg har brugt Call of Juarez benchmarker tool, 64-bit udgave, sat til maksimum DirectX 10 settings, 1680x1050, Shadowmap 2048x2048, Shadows High, SSAAx4, Sound On.
 
 
 
Og her ser vi en DirectX 10 test hvor HiS HD5970 ligger suverænt i toppen i både max. FPS, Average FPS og min. FPS scoren. Her kommer HiS HD5970 endnu engang til sin ret og outperformer både Gigabyte GTX-295 og lillebroren HiS HD5870. Igen et meget flot resultat for HiS HD5970. Her ligger HiS HD5970 96% over GTX-295 og 64% over det mindre HD5870! Her kunne det have været rigtigt interessant, at have prøvet et HD5870 med 2GB RAM til sammenligning - men et sådant er ikke produceret endnu.

Unigine Heaven benhcmark 1.0:

Unigine Heaven er en benchmark der skrevet specielt til, at udnytte DX-11, men som også kan bruges til både DX10 og OpenGL. Men da der var driverfejl med denne tests under OpenGL på både NVIDIA GTX-295 og HiS HD5970 er denne del af testen udeladt. Testen er kørt i 1920x1200 og 1680x1050 og med lyden slået til. Her kan I se, hvordan det udmøntede sig med HiS HD5970:
 
 
 
 
Som I sikkert kan regne ud, så er Heaven-testen kørt i DirectX 10 modus for Gigabyte GTX-295. Derfor skal man tage dettes store resultat med et stort gran salt, sammenlignet med, at AMD/ATI-kortene alle er kørt med DirectX 11 og Tesselation slået til. Vi kan dog uden problemer se, at HiS HD5970 vinder denne test kørt i 1920x1200. Forskellen mellem HD5870 og HD5970 er i denne omgang på ca. 57%. I 1680x1050 kan vi se, at GTX-295 virkelig lægger fra land i DirectX 10. Så kører man intet der bruger DirectX-11 kunne man købe et GTX-295, der dog bruger væsentligt mere strøm, end AMD's HD5000'ere. Samtidigt er prisforskellen på få hundrede kroner, så det vil jeg dog absolut fraråde.
 

Overclocking

 

Kortet overclocker UDEN problemer og det i helt ekstrem grad endda!  Der optrådte ingen grafikfejl under OC-testen af kortet og benchmarkene gik heller ikke ned. Og resultaterne af OC af kortet, taler da også for sig selv. Man får helt ekstrem aldrig set før OC-potentiale med AMD/ATI HD5970-serien. Og HiS HD5970 er ingen undtagelse fra dette, da det OC'er glimrende og udover AMD/ATI's lovninger. Dog holder kortet ret høje temperaturer og larmer belastende meget med blæseren sat til 100%. Men alt i alt er kortet exceptionelt godt lavet af AMD/ATI's ingeniører når man ser på, at køleløsningen er indsluttet i en stor kasse der dækker hele kortet til og kun er åben i bund, front og top. Jeg opnåede stabilitet på systemet i over 45 minutter - men med den helt store larm til følge. Og vi snakker ikke håndstøvsugerlarm denne gang - vi snakker støvsuger, som med AMD/ATI HD5970-kortet.

Overclockningtesten blev gennemført således:
Tool brugt: AMD/ATI Catalyst Control Center, version beta 5 til AMD/ATI HD5970 Hemlock og ATI OverVolt Tool:


  
  
(billedet er illustrativt og repræsenterer ikke det testede korts frekvenser)
Overclocket fra og til:
 
GPU: fra 725 MHz til 925 Mhz.
RAM: fra 1000 MHz til 1260 MHz
Temperatur: 79 grader celsius
 
Som det tydeligt fremgår af min stabilitetstets med FurMark 1.7.0 så kører HiS HD5970 ved ret høje temperaturer under OC-testen. Smertegrænsen for dette kort lå præcis på det jeg har testet op til, i denne testmaskine. 

Jeg nåede ikke højere op med HiS HD5970, end det anførte. Så resultatet jeg opnåede er den absolutte smertegrænse for dette kort.
 
Jeg opnåede en effektiv, stabil overclockning af GPU på 200 MHz og RAM på 260 MHz, der omregnet til procenter bliver til hele +27,58
% på GPU og +26% på RAM.
 
Og det synes jeg er et voldsomt flot resultat på et referencekort. Absolut brugbart i "produktion"/real life gaming/OC-ing. Dette finder jeg, da kortet trods ret høje temperaturer kører stabilt og uden problemer. Jeg vil konkludere, at ethvert produkt der med referencekøler kan klare FurMark "torturtesten" er ganske godt designet i mindst 10 minutter med et sådant overclock der ligger over de 25% AMD/ATI lover for dette kort er fænomenalt godt præsteret. Alt i alt crashede maskinen eller driveren ikke. Derved vil jeg konstatere overclockningen stabil. 
Man skal dog overvolte kortet med AMD/ATI's ATI OverVolt tool, da kortet ellers slet ikke får strøm nok og så vil crashe enten driveren, eller hele maskinen med et megabrag ved højere frekvenser, end 820 på GPU og 1200 på RAM. Jeg vil derfor voldsomt meget gøre opmærksom på, at dette kort er specialdesignet med henblik på overvoltning og toolet er da også lavet af AMD/ATi's ingeniører til denne opgave. Af samme grund har kortet helt nydesignede strømkredsløb og overspændingsbeskyttelse via hardwaremonitorering af spændinger, frekvenser og strømforbrug, via kredsløb fra Texas Instruments og håndplukkede komponenter over hele kortets PCB.
   
Temperaturen under Furmark test OC'ed lå på mellem 88 og 89 grader på GPU'en.
 
OC-test konklusion: 
 

 

OC-resultater for 3DMark Vantage: X12203 points - 884 mere end std. clock
OC-resultater for Call of Juarez: Benchmarker går ned - udeladt
OC-resultater for Furmark: 86 - 0 FPS mere, end fabriksclocket (weird)

 

 
  
Strømforbrug:

Strømforbrugsmæssigt bruger hele testmaskinen 173-189 Watt idle i Windows, "High Performance" og 330-350 Watt under belastning i benchmarks og IRL-gaming.
 
 
  
 
Strømforbruget under OC af kortet, ligger for hele testmaskinen på ca. det samme idle i Windows, og på 370-410 watt under belastning i benchmarks og IRL-gaming - overcloked vel at mærke. I alt meget acceptabelt strømforbrug i forhold til kortets ydelse, din el-regning og den globale miljøsituation. NON-OC kører kortet under belastning ved meget acceptable 147/173 idle i Windows og 250/330 under belastning. 147 watt er for hele maskinen, med power save aktiveret i Windows Vista.

HiS HD5970 sparer din el-måler fra, at løbe alt for løbsk i fremtiden i idle tilstand. Og du kan have god samvittighed med miljøfaktorerne, da dette kort clocker sig selv ned, uden for belastning og kan indstilles til, at være endog meget besparende for et super high end gamer grafikkort. I øvrigt er det pt. verdens højest ydende grafikkort, selvom dette kun bruger 47 watt idle, i Windows. Meget imponerende må man sige. OC'er du dog kortet eller på maksimum bør du overveje, om du kan nøjes med mindre, da kortet ved denne brug sluger voldsomt meget strøm. Dog ved normal clockning holder dettte sig stadig langt under NVIDIA's GTX-295.

Andet:

Drivere og kontrolpanel er klippestabile og giver ikke anledning til nogle bemærkninger overhovedet. ATI OverVolt-toolet til OC af kortet er barnetnemt - der er kun to indstillinger - overvoltet, eller ikke. Man skal dog, som Linux- eller Unixbruger bemærke at vi ikke endnu har OpenGL-testet HD5970 under Linux. Så pt, kan vi ikke sige, om driverne giver samme gode ydelse under Linux, som under Windows Vista, eller Windows 7.
 
Da vi nu er ved vejs ende, går vi derfor til videre til "Konklusion/UK Summary" ...
Vest-AALB-DK
 
Superbruger
Tilføjet:
30-12-2009 10:22:47
Svar/Indlæg:
247/2
Hvor kan det købes, vil have 2


noxon
 
Elitebruger
Tilføjet:
30-12-2009 10:29:05
Svar/Indlæg:
3321/21
Kig på edbpriser, det er ikke ret mange steder kortet er en lagervare, hvis nogen overhovedet har det, så det er bare at bestille et sted og vente..

Du vil i øvrigt ikke rigtig få noget ud af at have to kort, da et længe er nok til at klare stort set alt, OC hellere din cpu som vil være flaskehals uanset og hent noget ydelse der.


Svaret blev redigeret 1 gang, sidst af noxon d. 30-12-2009 10:30:44.


Sdammads
 
Superbruger
Tilføjet:
30-12-2009 11:50:36
Svar/Indlæg:
1037/59
#0
Udmærket test, dog synes jeg stadig at i mangler en Crysis benchmark, eller Modern Warfare, men måske er det bare en smagssag? 🙂


Micks
 
Elitebruger
Tilføjet:
30-12-2009 12:09:25
Svar/Indlæg:
1145/40
Synes også at hvis det skal være helt rigtig, så skal PPU slås fra i 3DMark test 😐


poulsen48
 
Elitebruger
Tilføjet:
30-12-2009 14:23:27
Svar/Indlæg:
2885/268
#4

PPU hvad er det ???...


Rasmus66
 
Elitebruger
Tilføjet:
30-12-2009 14:25:04
Svar/Indlæg:
8762/174
#5

PhysX


MazdaMadsen
 
Moderator
Tilføjet:
30-12-2009 14:57:10
Svar/Indlæg:
5039/109
Synes der mangler forrige generations topkort, som også var et dualkort.


noxon
 
Elitebruger
Tilføjet:
30-12-2009 14:59:04
Svar/Indlæg:
3321/21
#4

Helt enig, ingen grund til at grafikkortet skal beregne den ene CPU test for så at give en latterlig høj CPU score, hvilket så ikke giver et ordentlig sammenligning for selve 3D testen...


Gripen90
 
Senior Skribent
Tilføjet:
30-12-2009 15:16:28
Svar/Indlæg:
15982/637
Windows Vista m. SP2 understøtter Direct X 11 API'en, so hvorfor kun køre Unigine Heaven under windows 7 ?

Anyhow fin anmeldelse. Kunne dog godt have tænkt mit Crysis, Far Cry 2 eller. Resident Evil V benchmark med inde over.

Nåh men jeg glæder mig vildt til at få mit TriFire setup op og køre ASAP (PowerColor HD5970 & XFX HD5850 Black Edition (725@765mhz,4000@4500mhz)) .. så skal der bare spilles MW2.







WinterSilence
 
Overclocker
Tilføjet:
30-12-2009 15:35:05
Svar/Indlæg:
499/175
Diverse svar:

Heaven kørt på Windows 7 fordi den kategorisk går ned i Vista hele tiden.

Crysis udgået fordi vi ofte har mange problemer med, at få den til at virke - jeg har ikke brugt den i et halvt år.

De andre kan vi måske overveje, men så er der så bare intet referencegrundlag, at sammenligne med.

PPU-diskussion har vi haft før og den gider jeg ikke gentage. Men da mange ofter klager over jeg kører med PPU ON så tester jeg rent faktisk også kortene med det slået fra. Og for at illusterere hvor irrrelevant det egentlig kan være, så er resultaterne for HiS HD5970 2GB sådan hér:

3DMark Vantage Extreme: X11146 PPU = ON

3DMark Vantage Extreme: X11319 PPU = OFF

Forskel: 173 points i mest relevante deltest af 3DMark Vantage - derved langt indenfor rammerne på ca. 2.5-3% afvigelse.

Godt Nytår til Jer alle! 😀



Micks
 
Elitebruger
Tilføjet:
30-12-2009 16:01:26
Svar/Indlæg:
1145/40
#10 Det med PPU slået fra var nu heller ikke for at sammenligne ATI tests...

Det var nu med hensyn til den store forskel mellem nVidia og ATI i Vantage 😉


Svaret blev redigeret 1 gang, sidst af Micks d. 30-12-2009 19:36:59.


#12
Emze
 
Superbruger
Tilføjet:
30-12-2009 18:36:29
Svar/Indlæg:
666/100
lækkert at have 2 af dette kort :D


bornholm
 
Elitebruger
Tilføjet:
30-12-2009 18:52:07
Svar/Indlæg:
2958/84
#11 vil du så også stoppe DX11 test på 5850 og op, for de så kan du jo heller ikke sammenligne dem med Nvidia da de jo kun kan køre DX 10 🤡

Jeg er også træt af at høre om PPU m.m.

kort skal testes med alt det de er bygget til og så skal de ha hele armen, så stop det der tøsetudefjæs.

Der ud over må i ha et godt nyt år.


Micks
 
Elitebruger
Tilføjet:
30-12-2009 19:36:08
Svar/Indlæg:
1145/40
#13 Hvorfor tror du at f. eks en side som Guru3D ikke godtager testscores der indeholder PPU aktiveret - Netop fordi det ikke er sammenligneligt.

Derfor ville det heller ikke være rimeligt f.eks at lave en sammenligning af de forskellige kort på tværs af DX versioner, da nogle kort ikke kan være med i DX11.
De rigtige tests til de rigtige kort og lad folk bedømme på tværs af tests.

Skal kort testes med det de er bygget til skal et ATI kort da nemlig IKKE testes på physx - dette er jo ikke sagligt iorden... ikke i min bog ihvertfald.
På samme måde skal nVidia ikke testes i DX11 da det ikke ville være rimeligt - dette kan ske når Fermi engang kommer.

Tøsetudefjæs ?? Fedt at se en mand på 42 kaste med mudder øøeehh og spejl til dig mester 🤡


drejedoktor
 
Overclocker
Tilføjet:
30-12-2009 22:19:00
Svar/Indlæg:
4/1
Har forslag til rettelse i den engelske oversættelse:

"...However the noise under OC with the fan/cooler set to max. performance is intolerable. And here we talk "real vaccumer noise". My girlfriend walke out and went to herself and I thought of using my noise supressor hearing guards that I use for 6.5x55/.22 rifle and 9mm pistol shooting, normally"

Skal dette sidste stykke af "Performance" ikke klippes og sættes ind oppe ved Design/Layout. Og lige tilføje på engelsk at "Performance" karakteren landede på 3.
🙂


bornholm
 
Elitebruger
Tilføjet:
31-12-2009 04:33:02
Svar/Indlæg:
2958/84
#14 du skal sku da ikke fortælle mig at hvis du vil køre flere spil der kræver PPU at du så gør ud og køber et ATI kort bare fordi på rå basis køre bedre end Nvdia.

Hvis jeg har en formodning om at de næste 10 spil vil være til DX11, så køber jeg sku ikke et Nvidia og du skal heller ikke fortælle mig at hvis du sider med et Nvidia kort at du så har slået ppu'ern fra, svarer lidt til at man køber en Amerikaner V8'er og så hiver 4 tendrør ud af motoren bare for at sammen ligne den med en Fiat Uno, nu stopper du. 🤡

Desuden kan du jo bare hoppe over på Guru3D, hvis du syntes deres test er så meget bedre.


Micks
 
Elitebruger
Tilføjet:
31-12-2009 07:49:49
Svar/Indlæg:
1145/40
#16 Tror ikke på du er 42...

HWT og Guru3D er et godt mix for mig.

Dine sammenligningsgrundlag KAN simpelthen bare ikke komme fra en der er 42 - så har du været umådelig heldig at blive så gammel (du kunne jo gå hen og glemme at trække vejret).

Du lyder jo som en der lige er startet på teknisk skole og ikke ved om du skal starte som frisør eller mekaniker 🤡

Men skal vi derud hvor du bimler rundt bornholmer, så lad os da se nogle sammenligningstests med DX11 - der ville ATI jorde nVidia FULDSTÆNDIGT fordi der har ATI 28 tÆndrør mere end nVidia 🤡 wwooaaahh v8 - muskelbiler og alt det der 🤣


Svaret blev redigeret 4 gange, sidst af Micks d. 31-12-2009 13:44:39.


Drunken
 
Elitebruger
Tilføjet:
31-12-2009 10:42:59
Svar/Indlæg:
1107/258
hehe godt nytår. sygt kort. nasty.. noget nyt om næste generation egentligt `? syntes der stod noget om 2010 medd noget nyt. hmm.. spændende denne udvikling ihvertfaldet, måske priserne snart kommer ned i en 2000 kr så man kan være med., hehe, 🙂 thumbs up!! fed test


scheea2000
 
Superbruger
Tilføjet:
31-12-2009 12:57:31
Svar/Indlæg:
818/58
#16

"og du skal heller ikke fortælle mig at hvis du sider med et Nvidia kort at du så har slået ppu'ern fra, svarer lidt til at man køber en Amerikaner V8'er og så hiver 4 tendrør ud af motoren"


Med al respekt er det jo derfor at wankermark bør tages med et gran salt.

Hele pointen er, at med et single NV kort og brug af Physx, er det en ulempe (lavere FPS), da kortet ikke kan bruge 100% på spillets grafik og skal context switche. (Det sammer gælder til en mindre grad dual GPU grafikkort, men da det er svært at udnytte en GPU 100%, så er problemet mindre udtalt her.)

Den ulempe ser du dog aldrig i Wankermark; her vil resultatet blive langt højere/bedre end for en 100% tilsvarende GPU, som dog ikke understøtter Physx, da CPU/fysik-testen er ISOLERET og derfor ser man aldrig problemet!


...så din analogi svarer mere til at man bruger to cylindre på physx, og kun seks bruges på grafik i stedet for 8. 🙂

Dertil kommer at physx kun er en fordel når der skal beregnes fysik for absurd mange objekter - de fleste multikernede CPU´er gør et fint og tilstrækkeligt job, da spillets udviklere nok nødigt vil bruge tiden på physx eller skærer ATI folkene fra.

Og endeligt: hvor mange spil understøtter Physx?


Mvh. Scheea (som har et NV grafikkort 😛)


Svaret blev redigeret 2 gange, sidst af scheea2000 d. 31-12-2009 13:07:17.


Gripen90
 
Senior Skribent
Tilføjet:
31-12-2009 23:39:27
Svar/Indlæg:
15982/637
#19: Og endeligt: hvor mange spil understøtter Physx?

Flere end du nok lige regner med. Det er ihvertfald 50+ 😉


genuz
 
Elitebruger
Tilføjet:
01-01-2010 16:29:42
Svar/Indlæg:
798/19
#19 Der står i din profil at du er 3D udvikler, så burde du også bare af interesse have fundet ud af, at det efterhånden er sværere at finde et spil, der ikke understøtter Physx...


scheea2000
 
Superbruger
Tilføjet:
01-01-2010 18:53:38
Svar/Indlæg:
818/58
Er det denne overdådige liste af top AAA spil, som I indirekte refererer til?

http://www.nzone.com/object/nz...

Altså bare lige for at få det rene og så jeg ikke træder nogle fanboys over tærerne:
jeg mener ikke at Physx er en dårlig idé eller at det ikke i nogle tilfælde kan lave nogle virkelig fede effekter, som ellers har været umulige på CPU´en.
Jeg kommenterede udelukkensde på physx vs. Vantage, som imo giver et forkert billede af ydelsen.

mvh. Scheea 🙂


[G.N.U.]
 
Elitebruger
Tilføjet:
02-01-2010 00:16:51
Svar/Indlæg:
2175/21
den diskussion kunne satme da hurtigt løses:

lav en test i dx10 og 11, så man kan se forskellen, og lav en med ppu on og en med den off, så bliver ingen snydt, og man kan sammenligne ydelserne........så svært er det sq heller ikke.


Micks
 
Elitebruger
Tilføjet:
02-01-2010 09:22:02
Svar/Indlæg:
1145/40
#23 That's what I'm talking about 😀


scheea2000
 
Superbruger
Tilføjet:
02-01-2010 11:01:13
Svar/Indlæg:
818/58
#23 hvilket spil vil du foreslå?


Rasmus66
 
Elitebruger
Tilføjet:
02-01-2010 18:18:53
Svar/Indlæg:
8762/174
#25

Unigine Heaven benchmark som er DX11 og 3DMark Vantage


WinterSilence
 
Overclocker
Tilføjet:
03-01-2010 18:36:48
Svar/Indlæg:
499/175
#9 Gripen90:

Vi er ved at evaluere, om Resident Evil V benchmark skal indgå i testsuiten udfra dit udemærkede input 🙂


fubar2
 
Enthusiast
Tilføjet:
04-01-2010 19:17:59
Svar/Indlæg:
5/0
Jeg kan virkelig godt lide hvordan AMDs reklamemateriale er reproduceret/oversat her, fuldstændigt ukritisk og ubehandlet. Jeg kan fremhæve ting som:

"Og som det ses, har AMD fordoblet brugernes værdi per dollar/krone de sidste år" der tilføjes et uskyldigt "iflg. deres egne data" på trods af at skribenten tydligvis sælger det videre som gode varer med "Og som det ses, har...".

"HD5970 er verdens absolut hurtigste dual-GPU, single-PCB grafikkort med DirectX 11 kompatibilitet og 40nm procesteknologi". Hvilket vel ikke er så svært hvis man er den eneste, dette kan selvfølgelig bare være et eksempel på manglende copy editing, skribenten hensigt var muligvis at sige noget ala: "Det er verdens hurtigste dual-gpu grafikkort. Som derudover også..." men det er langt fra det der bliver sagt.

"Nedenfor hér ses AMD/ATI's "roadmap"/plan for den kommende serie af Radeon HD 5000 grafikkort". Og det får man så, hverken mere eller mindre, ikke engang en forklaring kan det blive til.

"skærmopløsninger på 2560x1600, i hele 24 megapixels High Definiton opløsning". Her går det først helt galt, 24 megapixel hvad for noget? Er det en skærm eller et kamera vi snakker om? Popordene kommer galt i halsen på vores skribent, og han glemmer at checke sine tal, 2560*1600 giver så vidt vides ikke 24 nogetsomhelst. Og hvad er en High Definition opløsning nu? Hvis det er 720p eller endda 1080p så har vi da skudt noget under målet, men irrelevante floskler er jo kærkomne hos alle marketingafdelinger og kan åbenbart fint blive regurgiteret af HwT.

"en markant reducering i antallet af trekanter/triangles og polygoner, hvilket muliggør en højere billedkvalitet". Ehm... Hvad? Sikkert ganske fin reproducering af et eller andet salgsmateriale, men det giver ingen mening, en reduktion af polygoner kan aldrig give bedre kvalitet, det kan fint give bedre performance, men kvalitet? Den må vores kære skribent vist hellere forklare.

"AMD har rent faktisk overskredet Moores lov" "og det er faktisk lidt af en bedrift". ??? Øhmm, en IT skribent der ikke kender Moores lov? Om ikke andet så ihvertfald yderst pinligt! Moores lov siger mere eller mindre: Antallet af transistorer som man på økonomisk vis kan lægge på en IC fordobles ca. hvert andet år. Hvilket inden for mange IT relaterede ting betyder at der også der er en eksponentiel vækst (så som CPU hastighed, RAM kapacitet etc.). Den fine graf som AMD har, illustrerer meget fint at dette også gælder inden for GPU'er; der er en eksponentiel vækst i FLOPS.

"fremtidssikret langt frem i tiden." Øh? En IT skribent der ikke har lagt mærke til at INTET i IT verdenen er "fremtidssikret langt frem i tiden." for slet ikke at nævne de næste 6 måneder.

"og her fremgår det at der klart er meget, at vinde ved at benytte DirectX 11". Klart, my foot! Hvad er der at vinde? Hvad er fordelen for mig ved at der er tesselation i DX11, og hvilke fordele er der ved SM5? Og DirectCompute 11? Hvad med HDR texture tingen? Informer dog lidt istedet for bare at regurgitere. Det lyder vitterligt som: "Jamen, det har et højere versionsnummer så det er da klart bedre!", Yeah right, som vista's klare overlegenhed over XP, n'est-ce pas?

"vil angiveligt tilbyde slutbrugeren 240% mere ydelse gennemsnitligt". I forhold til hvad? Ja, jeg kan godt selv læse grafen, men kan skribenten? Og hvis vi kan bruge producentens egne benchs til noget som helst, hvad skal vi så med HwT?

"Her er en række billeder der illustrerer"... Hvordan jeg har copy pastet?

Hele den laaange sektion om "Innovation / Teknologi" kunne IMHO sagtens være erstattet af et direkte link til noget HiS/AMD salgsmateriale.



Der er da vist også brug for lidt copy editing! Jeg kan fremhæve guldklumper som:
"...bedst ydende teknologi lagt fast.",

"kontinuerligt og vedholdende konstant skiftet til nye typer teknologier" (der er yderst ekstremt komplet virkelig mange sætninger af denne type).

"kodenavn Hemlock - der betyder Skarntyde på engelsk!" Kommer på hvad? Side 4 - Specifikationer, efter det er blevet nævnt, hvad, 50 gange?

"er kortet dog rent ulideligt" dudez!

Og så vil jeg råde læseren til at tage en dyb indånding inden denne:
"Rent fotografisk er det lykkedes, at lave fokus på og gengive en del, af den enorme køleprofil - der er udført i rent kobberi bunddelen og aluminium i topdelen - der udgør hovedkernen i det AMD/ATI kalder for "Vapour Chamber" - der oversat til forståeligt dansk betyder "dampkammer" - altså det sted varmen skal mikses med den koldere luft der blæses igennem dette." P.S. Du sagde forståeligt dansk; dampkammer? Damp? Really?

Og så alle de kære "idiotkommaer"; altså ", at", hvis ikke man kan bekoste en korrekturlæser, så lær dog i det mindste skribenterne den gamle læresætning "Der skal være komma foran 'at', når der IKKE kommer et udsagnsord efter." Så slipper vi da i det mindste for 90% af disse fejl. Se evt. http://sproget.dk/raad-og-regl... (Jeg har sikkert begået en masse grammatiske fejl i denne kommentar, men jeg prøver heller ikke på at være en seriøs publikation).

"den ene GPU monteret spejlvendt af den anden - hvorfor vides ikke" Kæphøj much? I ved det måske ikke, men det er jo ikke ensbetydende med at ingen ved det. Jeg ville foreksempel formode at det er for at have så korte I/O paths som muligt/lige lange I/O paths. Da path length er begyndt at blive signifikant i forhold til GPU/IO/Memory clock.

"strømforsyningen/PSU'en", "default/standard" Julemanden/Santa Claus'en?

"placeret i toppen af kortet, bagerst så..."

"Længden på kortet er hele 31 CM (knap 4-5 CM længere end HD4870X2 og GTX-295).
Her skal man hæfte sig meget ved længden af kortet" Det er altså ikke her man skal hæfte sig meget ved vægten? Pudsigt.

Puha Midten af side 5, nu må det være nok.

Men hvis man skal kunne tage dette seriøst, mangler der, set fra mit synspunkt, helt klart en masse kritisk distance, og en ordentlig editoriel indsats.

P.S. Da de færreste danskere kan håndtere kritik, constructive or otherwise, er dette skrevet af anonyme Bob.


scheea2000
 
Superbruger
Tilføjet:
04-01-2010 21:46:23
Svar/Indlæg:
818/58
Puha sikke da en smøre 😩

Jeg svarer ikke på skribentens vegne, men vil nu alligevel kommenterer lidt på din kritik.

Formuleringer kan vi altid snakke om og jeg er også ligeglad med alle de andre flueknep som kommafejl, dobbeltbenævnelser, hvornår benævnelser er nævnt, og det faktum at du ikke engang tør stå ved din egen kritik. 😕

"Her går det først helt galt, 24 megapixel hvad for noget? Er det en skærm eller et kamera vi snakker om?"

En pixel er vel en pixel og en million eller 1024^2 af dem er en MegaPixel uanset om det er en skærm eller et kamera.
Igen ingen er ufejlbarlige - og slet ikke vi - så det hænder jo engang imellem at der mangler lidt ord, så betydningen kan ændre sig, men jeg synes, at det er åbenlyst for alle som kender lidt til ATI's 5-serie, at skribenten snakker om EyeFinity, så man kan slutte 3 højopløste skærme til grafikkortet, hvilket giver total set 24 MP's skærmopløsning.

Ehm... Hvad? Sikkert ganske fin reproducering af et eller andet salgsmateriale, men det giver ingen mening, en reduktion af polygoner kan aldrig give bedre kvalitet, det kan fint give bedre performance, men kvalitet?


Det virker som om du ved hvad du snakker om - og så ikke alligevel. For du ved vel at han snakker om de nye tesselation-muligheder i dx11, så antallet af polygoner i en højpoly (højere end normalt) model reduceres løbende, så modellen effektivt kan renderes - altså bedre kvalitet og performance. Og nej, kvaliteten reduceres ikke nødvendigvis, når man reducerer antallet af polygoner, hvis man gør det intelligent - fx i forhold til afstanden fra modellen til kameraet, store 'flade' overflader eller for polygoner, som ikke giver en visuel forskel i billedet.

Og selv hvis det var ren performance, så kunne det jo gøre at man kunne skrue på nogle kvalitetsparametre andre steder.

"Da de færreste danskere kan håndtere kritik, constructive or otherwise, er dette skrevet af anonyme Bob"


....øøh...helle på træet? 😛

Mvh. Scheea 🙂


Svaret blev redigeret 1 gang, sidst af scheea2000 d. 04-01-2010 21:48:30.


Micks
 
Elitebruger
Tilføjet:
04-01-2010 22:16:08
Svar/Indlæg:
1145/40
Og tjek lige fubar2 for anden IP adresse 😎

Førstegangs poster og sådan en smøre - lige til at blive mistænkt for dobbeltprofil (det samme som små nosser og ikke at kunne stå ved en sådan smørre med sin rigtige profil) :yes:


scheea2000
 
Superbruger
Tilføjet:
04-01-2010 22:18:06
Svar/Indlæg:
818/58
well det skriver han jo også direkte 🙂


fubar2
 
Enthusiast
Tilføjet:
04-01-2010 23:09:24
Svar/Indlæg:
5/0
Hej Scheea

Hermed mine forhåbentligt ikke helt vidensforladte svar på dine kommentarer.

"så antallet af polygoner i en højpoly (højere end normalt) model reduceres løbende, så modellen effektivt kan renderes - altså bedre kvalitet og performance."

Du har renderet den "effektivt" (ifølge dine egne ord) og slutter derfor at dens kvalitet er højere? Det var da noget af en non sequitur. Du har renderet en model med færre polygoner ergo med mindre information, mindre detalje, altså kan den objektive kvalitet udelukkende være dårligere. At du og jeg så ville have svært ved at se forskel, er noget helt andet, kvaliteten er IKKE blevet bedre.

"Og nej, kvaliteten reduceres ikke nødvendigvis, når man reducerer antallet af polygoner, hvis man gør det intelligent - fx i forhold til afstanden fra modellen til kameraet, store 'flade' overflader eller for polygoner, som ikke giver en visuel forskel i billedet. "

Den objektive kvalitet vil reduceres, den subjektive vil muligvis ikke. Den reducerende algoritme vil aldrig blive lige så god som selve rendering algoritmen (så ville man jo bare bruge den) ergo vil du have et kvalitetstab.

Det kan da godt være at det er pissefedt, og fanboys vil sidde og flå sig selv i bananen over det i flere timer, det ændrer bare ikke på den faktuelle fejl, som derfra hvor jeg sidder, ser ud til at være opstået fordi der har været stor hast med at forfatte noget uden rigtigt at forstå hvad det drejer sig om. Som så heller ikke har været igennem nogen som helst form for redaktionelt filter. Polygon reduktion = Performance gain IKKE kvalitetsgain, lige gyldigt hvor meget du gerne vil rædde en eller anden forskruet idé om ære.

"Og selv hvis det var ren performance, så kunne det jo gøre at man kunne skrue på nogle kvalitetsparametre andre steder." Ja okay, men så lad os da lede med lys og lygte efter den logiske slutning. Hvis noget er designet til at give bedre performance, så er det det den velinformerede/researchede vil nævne ikke at det via bagvejen så også kan give noget andet...

"En pixel er vel en pixel" Ja da "og en million eller 1024^2 er vel af dem er en MegaPixel" Skal vi sige en million? Lad os det da termen "megapixel" helt klart er en marketing (og marketing afdelingen har stadig ikke forstået hvad bit er for noget) floskel som er blevet opfundet til digital kameraerne, derfor min klare skepsis overfor at indføre dette lamme, tamme floskel ord i IT verdenen (og mindre på en teknisk orienteret side). Og endnu engang, hvordan kommer du frem til de 24 megapixel? Det kan godt være at nogle marketing hoveder kan sige "vi lægger da bare alle skærmenes opløsning sammen" (Eller kamera producenten siger "den kan tage 24 billeder rigtigt hurtigt efter hindanden lad os da lægge deres opløsning sammen så de bliver 100 megapixel!!!) men der er det jo så at jeg ville mene at en IT skribent ville være lidt mere kritisk end bare at reproducere sådan noge mundgejl verbatim. N.B. 2560x1600x3 giver stadig ikke 24 "megapixels".

Postdata: Jeg har det helt fint med størrelsen på alt hvad jeg har mellem benene, på trods af den debatniveauløftende mudderkastning og "namecalling", der nærmest nødvendigvis følger af enhver kritik, især her på vort kære internet...Ærgeligt at vi ikke er mødtes på gaden, så kunne man bare slå mig ned (og sparke mig i hovedet når nu jeg lå ned) og glemme alt om den hæslige kritik den vemmelige lille person havde at komme med.


Micks
 
Elitebruger
Tilføjet:
05-01-2010 06:01:06
Svar/Indlæg:
1145/40
Nå ja, nu er det jo også HELT det samme som at slå på folk og sparke dem når de ligger ned - undskyld men nu må jeg sgu grine lidt 🤣

Offerrollen blev bare lige påduttet dig (jeg hører en meget lille violin i baggrunden her).

Men du påråbte dig altså kritikken af din person og dit indlæg da du valgte at kritisere "anonymt"

Havde du nu valgt at kritisere og stå ved dine udtalelser, så havde du pr automatik fået en DEL mere respekt fra min side af.
Da dette ikke er tilfældet + at du nu selv synes det er synd for dig... ja så hæver du ikke niveauet for min mening om dig (som du sikkert også er ligeglad med alligevel 😛 )

Jeg synes stadig du har små nosser 🤣


Svaret blev redigeret 1 gang, sidst af Micks d. 05-01-2010 06:01:39.


scheea2000
 
Superbruger
Tilføjet:
05-01-2010 09:28:03
Svar/Indlæg:
818/58
Nå sidste indlæg fra mig - det er allerede way off topic


"Du har renderet den "effektivt" (ifølge dine egne ord) og slutter derfor at dens kvalitet er højere?"


Ja læs hvad jeg skriver.
Lad mig pensle det lidt mere ud for dig med et simpelt, forenklet eksempel:

Tag en model - lad os sige et træ - med 30.000 vertices. Du har 4 træer i scenen. Et træ tæt på kameraet og tre langt væk fra kameraet.

Hvis du intelligent og meget effektivt kan reducere antallet af polygoner, så træerne der er langt væk, har få polygoner (lad os sige 3000 vertices - bemærk ingen 'kvalitetstab' da objektet er 'lille'), mens træer, der er tæt på har alle 30.000 vertices, så har du reduceret det samlede antal polygoner, der skal renderes til 39.000 polygoner - uden kvalitetstab.

Hvis du ikke havde den mekanisme (LoD), og grafikkortet eksempelvis kun havde tid til at rendere 40.000 vertices, så kunne dine træer kun bestå af 10.000 vertices - altså dårligere kvalitet, men næsten samme renderingstidsforbrug.

Tesselation mulighederne er så lidt mere indviklet. Du kan bl.a. 'kunstigt' eller vha. textures (mig bekendt) tilføje polygondetaljer til en ellers lowpoly model, igen: højne kvaliteten med et minimum af performance impact.
Jeg håber beskrivelsen er så lidt fanboy og marketingssnak-agtigt, så din hjerne ikke går helt i kludder halvvejs. 😛

Nu har tesselation intet med ATI at gøre (bortset fra det har været igennem marketingsmølllen hos ATI), men det har noget med DirectX API´et at gøre.



Det kan da godt være at det er pissefedt, og fanboys vil sidde og flå sig selv i bananen over det i flere timer


Flot formuleret, men folk glemmer nogle gange, at Directx ikke er til for brugerene (jo i sidste ende), men det er til for udviklerne. DirectX 10, men også DirectX 11 byder i den grad på nogle svært lækre 'værktøjer' for spiludviklere - Tesselationmulighederne er bare én af dem.

Subjektiv vs. objektiv kvalitet? Hvornår har vi nogensinde været interesseret i 'objektivt' kvalitet?!?!?! 😕 Hvis du vidste hvor meget spiludviklere og computer grafik prøver at snyde dit øje, så kunne du jo ikke lavet andet end at pointere at det er ikke kvalitetsmæssigt forsvarligt - objektivt set. 🤣


Mht. megapixels diskussion, så er begrebet jo validt nok - fordi kameraproducenterne misbruger det ændrer det jo ikke på at 24 megapixels er en pæn, spiselig fremstilling af opløsningen 7680 x 3200.

Jeg synes skam du har store nosser. Bare ærgeligt at dine programmørnosser ikke tør stå ved sine troll-agtige kritik...

Hvis der er mere du er i tvivl, så skal jeg se om jeg kan hjælpe, men lad os tage det i en anden tråd eller pm. 🙂

Og sidst: Du går meget op i, at du tror, at vi nu synes at du er en meget væmmelig person. Det lader jeg stå ukommenteret... 😉

Men tak for nogle fornøjelige indlæg 🙂

Mvh. Scheea 🙂


Svaret blev redigeret 2 gange, sidst af scheea2000 d. 05-01-2010 09:39:48.


fubar2
 
Enthusiast
Tilføjet:
05-01-2010 10:46:06
Svar/Indlæg:
5/0
Hej Scheea

Jeg vil påpege min originale konklusion for ikke at drifte for meget off-topic (kritik af artiklen er vel on-topic i tråden om artiklen?) der mangler kritisk distance fra skribenten, marketing termer bliver copy pasted uden overvejelse (så som megapixel), og ingen del af artiklen er røget igennem nogen form for redaktionel behandling, end ikke korrekturlæsning. Alt dette ville jeg sige nok var 90% redaktionelt og 10% skribent. At skribenten så ikke ved hvad en polygon er...

Hvis man så vil forsvare skribentens tekniske kunnen / validiteten af hans udsagn, så er det jo fint nok og den kan vi tage andetsteds... men du starter 😛

Med hensyn til tesselation: Det er klart at det at frigøre GPU tid kan give bedre kvalitet. Det kan det at køre med hurtigere RAM også. Det har bare ikke noget med min kritik af artiklen at gøre, min kritik gik på at der stod: lavere trekant og polygon (ja både og!) tal -> bedre kvalitet. Og det er jo så lige modsat virkeligheden. Altså den generaliserede version som skribenten tilslutter sig, at et lavere poly count vil, logisk set, føre til bedre kvalitet. Og hvis du vil forsvare det, har jeg en rigtig fin trekant du kan klistre på din skærm, som du så kan kalde HiS Ultra-Poly-Redux-Engine og sige det er top-dollar 3d grafik-kvalitet (Green version, som bruger 0watt!).

"bortset fra det har været igennem marketingsmølllen hos ATI" Ja, og det er "afmøllificeringen" som jeg venter af en IT publikation, ellers kunne jeg som sagt bare læse marketing materialet.

"men det er til for udviklerne" (De har da openGL 😛) Nu er det så næppe udviklerne denne artikel er skrevet for?

"prøver at snyde dit øje" enough said. (hvor LoD er et super eksempel på hvor meget de kan fejle, det kan da godt være at tesselation er guds næste komme, men det nævner skribenten intet om, han nævner ikke engang at det er tessalation han mener da han siger at lavere poly count=bedre kvalitet)

"24 megapixels er en pæn, spiselig fremstilling af opløsningen 7680 x 3200." Joda, du ville jo sikkert også svare "1.3 megapixel" hvis der var nogen der spurgte hvilken opløsning din skærm kørte med og du kørte 1280*1024, ikke? At least, don't BS me.


scheea2000
 
Superbruger
Tilføjet:
05-01-2010 11:00:13
Svar/Indlæg:
818/58
""men det er til for udviklerne" (De har da openGL smile) Nu er det så næppe udviklerne denne artikel er skrevet for? "

Netop! - og derfor bruger vi ikke 'spalteplads' på at ævle alt for meget om trekanter, LoD, Tesselation, Geometry eller Compute-shaders eller kvalitetsperception for den sags skyld.

Igen: vi er frivillige på sitet, bestemt ikke journalist-uddannet, ikke alle kan være lige uddannet/vidende i alt - slet ikke i denne branche, så fejl og mistolkninger kan forekomme, men det er bestemt tilladt at tænke selv (men det kræver måske en brugerprofil (for du har jo en på hol, ikke? 🤣))

Mvh. Scheea 🙂


fubar2
 
Enthusiast
Tilføjet:
05-01-2010 11:09:54
Svar/Indlæg:
5/0
Jeg vil så også lige sige, at hvis i har det fint med sådanne publikationer på jeres hjemmeside, så er det da honky-dory, det er bare fuldstændigt umuligt for mig at tage det seriøst, jeg fik tilsendt et link til denne artikel, læste den, og følte så jeg burde sige min ærlige mening. Hvis det kan bruges til noget, så er det fint, jeg mener man relativt nemt kunne højne niveauet af en sådan artikel, jeg er sikker på at skribenten kunne skrive mere informerende. Hvis en anden læste artiklen med en kritisk tilgang (som jeg gjorde ved anden, halve gennemlæsning) så ville det ikke være svært at finde faldgruberne og få ham til at redigere dem. Årsagen til at jeg nævner ting som kommaer er at der er så mange grammatiske og ortografiske fejl at det er tydeligt at man ikke engang har læst korrektur på artiklen, hvilket gør det blændende tydeligt at der ingen redaktionel process har været. Jeg vil også vove at påstå at enhver skribent lynhurtigt vil blive meget doven hvis han ved at hans artikler går direct to print...


fubar2
 
Enthusiast
Tilføjet:
05-01-2010 11:17:40
Svar/Indlæg:
5/0
"men det er bestemt tilladt at tænke selv (men det kræver måske en brugerprofil (for du har jo en på hol, ikke?"

Jo at tænke selv er fint...

Det ville være så dejligt nemt at kunne feje enhver kritik væk på den måde; "Nååå men han er jo bare en xxx fra yyy konkurerende site"

xxx kan du så erstatte med hvad du vil, troll, hater, idiot, ballless, &c.

og hvis jeg var inde i verdenen med hardware ting så kunne jeg også give dig en liste med hw sites (nu kender jeg desværre kun toms hardware og anand, og de er vel ikke direkte konkurenter? Men jeg vil da lige benytte lejligheden til at anbefale begge)

P.S. Nu gik jeg så ind på hol for at se om det så var supergodt, men der er der da vist ikke publiceret noget i lang tid (siden 2k7!)!?




Svaret blev redigeret 1 gang, sidst af fubar2 d. 05-01-2010 11:21:51.


bornholm
 
Elitebruger
Tilføjet:
05-01-2010 16:05:24
Svar/Indlæg:
2958/84
Det er 1. gang jeg har set MJensen lave så lange indlæg. 😀

PS.: I vælger selv! 😛


Svaret blev redigeret 1 gang, sidst af bornholm d. 05-01-2010 16:06:15.


[G.N.U.]
 
Elitebruger
Tilføjet:
07-01-2010 02:04:01
Svar/Indlæg:
2175/21
ved ikke om jeg er en gennemsnitlig bruger her på sitet, men nej hvor har jeg nydt jeres lange slagsmål her i tråden, for på trods af rettelserne i kritikken, ved langt de fleste nok hvad der bliver skrevet om i artiklen, og noget helt korrekt ville muligvis forvirre mere end det gavner.....men underholdning har det bestemt givet......


scheea2000
 
Superbruger
Tilføjet:
08-01-2010 11:41:10
Svar/Indlæg:
818/58
"men nej hvor har jeg nydt jeres lange slagsmål her i tråden"

Velbekommen... 😳 😛