-> #1
"What happens in D.C. stays on Yotube" 😛
-> #2
Det er ganske korrekt. Det er ikke så meget hvilket kort der har flest FLOPS (Floatingpoint Operations), men hvordan kortet håndterer dem. Det er ganske korrekt, at ATi's kort (både HD 3870 X2 og HD 4850) ser ganske gode ud på papiret. Men hvad nytter det, hvis ATi-kortet skal udregne to operationer, hvor hver enkelt nVidia-kortet skal udregne?
Det er et simpelt spørgsmål om matematik og programmering.
Det sørgelige er jo blot, at både HD 38xx- og 48xx serien ser rigtig gode ud på papiret. I hvert fald i forhold til nVidias alternativer, men de yder ikke bedre. Er det så ATi der har "floppet" eller er det programmørerne?
Der er ingen tvivl om, at en stor del af skylden ligger hos programmørerne og API'en. Hvis nVidia så samtidig går ud og siger (og det skal absolut ikke tages som konspiratoriske idéer det her): "Hvis vi får vores logo på jeres spil, så får I en pose penge af os" - så vil de måske lægge lidt flere kræfter i udviklingen til nVidia? Hvem ved?
Jeg ved blot, at nVidias CUDA (deres programmerings-platform)... nej, lad mig omformulere. Jeg ved blot, at nVidia m e g e t gerne vil udbrede deres CUDA. Intel lurer også i skyggen med Larrabee (som jeg personligt tror flopper lidt), så de bliver udfordret på alle kanter. De har lært af fadæsen med FX-serien (hvor de blev røvrendt af Microsoft, der ikke ville dele DX API'en med dem) og holder nu kortene tæt til kroppen. Måske lidt for tæt? Kan der være en sammenhæng mellem presset fra ATi, markedsanalysen og udbredelsen af SLI? Nu hvor nVidia, langt om længe, officielt, vil understøtte SLI på Intel chipsæt? Det er jo ikke en umulighed (via hackede drivere), men det er nok ikke noget menigmand vil forsøge sig med.
nVidia står med ryggen mod muren, og selvom de har den største maskine bag sig. Jamen. Hvad nytter det, hvis et lille pisfirma som AMD/ATi kan presse dem?
General Purpose GPU bliver fremtiden. Af hensyn til udvikling og afvikling. Det er dyrt for ATi og nVidia at udvikle nye chips og teknologier. Så derfor er der en vis interesse i, at få en teknologi til at holde så længe som overhovedet muligt.
Når man har en GPU, der er fuldt ud skalérbar og programmérbar, så lever den længere, end en GPU med fastsatte instruktionssæt (hvilket også er en af grundene til, at jeg tror Larrabee flopper). Ser man på alternativet, nemlig nye launches hver måned, så dræner det firmaerne og innovationen er nærmest ikke-eksisterende og den ene af dem afgår ved døden.
Det er sket med mange, der sidenhen er blevet opkøbt af større fisk. Sådan fungerer maskinen.
Derfor er det dejligt, når der kommer et frisk pust ind i et rum, der i forvejen lugter lidt for meget af prut - so to speak.
Derfor er det også meget interessant, at nVidia "officielt" har sagt til ATi, at de blot kan anvende deres PhysX-engine. Jamen... Har de noget andet valg? ATi vil, uden problemer, kunne afvikle PhysX på en ATi-chip, og det åbner muligheder for udviklerne. De skal ikke tænke "ATi eller nVidia?" og vi burde dermed får spil der skalerer bedre, uanset om vi kører med den ene producent eller den anden.
I "gamle dage", så var der en vis fornuft i at sige: "Det her spil kører bedst på ATi" eller "Det her spil kører bedst på nVidia" - jamen. Når nu begge GPU'er kan det samme, så kan det være ligemeget hvad vi bruger. De skal finde alternativer, for at vi skal vælge den ene frem for den anden.
Bevares. Fanboys vil altid eksisterer. Ligesom der findes fjolser, der partout vil køre i VW frem for Mazda. Faktum er, at majoriteten af folk der kører bil, bare skal fra A til B. Og det er hér slaget skal stå.
Du kan få alt til at køre på et grafikkort i disse dage. Bare søg på Google. Jeg er sikker på, at du vil kunne finde masser af information om grafikkort der på mystisk vis bliver brugt til fysikberegninger (vi snakker forskning, eksempelvis), som lydkort eller noget helt andet. Det kan bruges til real-time video-encoding (hvilket Intel ikke er så tilfredse med - Enters; Larrabee), du kan lave vilde backdrops, aktive elementer og lækre brugerflader. The Sky's the limit.
-> #3
Jotak, mange tak 🙂