Synes lige jeg ville skrive lidt om et par overvejelser, men først vil jeg lige sige at jeg har hverken spillet Doom 3 eller kigget særlig meget på screenshots fra Doom 3/HL2.
Anyways, at sige HL2 er gammelt, slidt og grimt allerede virker sku' lidt for underligt, for er der nogen af jer der sidder med en udgave af HL2 hvor i kan spille det ingame? Selvfølgelig kan man kigge trailers og jeg har da også selv set en trailer hvor de fysiske effekter i HL2 imponerede mig meget, men jeg kan først rigtig bedømme det når jeg har spillet installeret på min spand.
Mht. Doom 3, så mangler vi stadig at se om det også kan vise tænder i store åbner baner, som dem vi ser i UT2004, eller om det fejler grumt, f.eks. pga. det kræver for meget ydelse at rendere.
Hvilken engine, der bliver brugt mest er svært at sige nu og på det område kan vi kun vente og se.
Når det gælder ATi, så mener jeg at have læst, at de udelod understøttelse af Shader Model 3.0 (Pixel Shader 3.0 + Vertex Shader 3.0) fordi Shader Model 3.0 ikke havde meget nyt at byde på.
Da jeg for nogen tid siden skulle teste Gainwards Geforce 6800Ultra skulle jeg selvfølgelig også have et teknologi afsnit og derfor læste jeg _mange_ sider om emnet og kiggede på et par tests af Farcry v1.2 (som bekendt understøtter Shader Model 3.0).
Konklusionen i Farcry tests var, at der var en lille ydelsesforbedring at hente, ikke meget, men dog stadig en forbedring. På grafiksiden var det samme konklusion, forbedringerne var der, men de var ikke store.
Det er selvfølgelig for tidligt at sige alt for meget om Shader Model 3.0, når der kun er Farcry v1.2 og Doom 3 der understøtter det, men jeg kunne godt tænke mig at se nogle flere tests af Shader Model 2.0 vs. Shader Model 3.0 både på det ydelsesmæssige og visuelle plan.
En anden generel tanke bag Shader Model 3.0 var også, ligesom ATi nævner, at Shader Model 3.0 faktisk ikke bragte SÅ forfærdelig meget nyt - mest forbedringer, der gør livet lettere for programmører, men det er dog ikke ensbetydende med at Shader Model 3.0 er ubrugeligt.
I økonomiske sammenhænger har det en betydning, for specifikationer og høje tal sælger. Hvem ville f.eks. købe et grafikkort, der ikke understøtter Shader Model 3.0 (som man i øvrigt sikkert ikke engang ved hvad er :e ), når man kan få et grafikkort der understøtter Shader Model 3.0 til samme pris?
Det er selvfølgelig mest den gruppe af brugere vi tilhører, der tænker sådan (modsat Hr. & Fru Jensen der køber en færdigsamlet computer med et "128 mb grafikkort") - når det gælder de store OEM salg, så vil det ikke undre mig hvis sagen bliver undersøgt grundigt, før der bliver investeret i tusinder af grafikkort. Præcis som der står i artiklen.
SLI? Tja, NVidia har det, ATi har det ikke (i hvert fald ikke endnu) og det vinder NVidia på. Spørgsmålet er hvor stor betydning det får. Igen, den gruppe brugere vi tilhører, der kommer til at investere i dette. Mht. til OEM, så kunne jeg evt. forestille mig, at firmaer som f.eks. Dell vil tilbyde en mulig opgradering til 2 grafikkort på deres dyreste modeller, men i sidste ende tror jeg SLI bliver en niche.
Det var mine 25 øres visdom :)