Det skal ikke være nogen hemmelighed, at jeg både hader og elsker det grønne hold, fra Guds eget land.
På den ene side, så er det imponerende, hvordan de kan vende markedskræfter. Både med, og uden hjælp fra andre. Især når man ser på deres anstrengelser, for at fjerne CPU'en fra ligningen, og få grafikkort til at stå lig med "det hele".
PhysX er absolut ingen undtagelse. Det er åbenlyst for enhver, skal computergrafik se realistisk ud, så nytter det ikke noget med de flotteste teksturer, lys, røg og spejlingseffekter. Det hele skal bindes sammen, og her på Jorden, har vi enheden "Newton" til formålet.
Denne lille engelske matematiker formulerede nogle af grundpillerne i moderne videnskab. Det kan lyde lidt voldsomt, sådan at sammenligne computerspil med seriøs forskning. Ikke desto mindre, så er det lige præcis hvad nVidia gør, hvad ATi gør, hvad AMD gør og især hvad Intel gør.
Fremtiden for spil, ligger er mere realistiske fysikberegninger. Kan man få fysikken til at falde på plads, kan man implementere langt mere dynamiske elementer i det digitale univers. Om så det er længdekast med stormtropper eller nedskydning af højhuse på tid.
Der har eksisteret to større platforme, om man vil, til fysik, i et stykke tid. Den ene, Havok, velkendt og velrennomeret, blev opkøbt af Intel og er nu således et underselskab af 'the big blue' [hø hø].
Den anden, AGEIA PhysX, blev - ironisk nok - opkøbt af nVidia, der sidenhen har presset på, for at bevise GPU'ens nødvendighed, i en moderne computer. Intel har, naturligvis, interesse i det modsatte, og det er to voldsomme kræfter der her er på spil.
Midt i det hele, har vi ATi. Lillebitte ATi, opkøbt af et skrantende AMD og midt i panikken kom HD 3xxx-serien. Et los i løgposen til de store, der med en vis nervøsitet afventede det næste træk fra de gale Canadiere.
Fordelen ved nyere grafikkort (eller, deres GPU) er, at kortene er ret så meget programmérbare. Dvs. har man de rette skills, så er der ingen grænser for, hvad du kan gøre med kortet.
Nu er det så det til gengæld bliver RIGTIG interessant.
Slagsmålet er kun begyndt, og som en anden digital udgave af den kolde krig, trækker fronterne op og himlen mørkes. Pludselig smider ATi deres HD 4xxx serie på markedet. Ikke alene sparker den røv, men den sparker endnu mere røv pr. krone/øre, end nVidias kort, og den slags gør avs.
Især når konkurrenten anvender teknologi, der hører under den processorgigant, man gerne vil drille lidt.
For at være ærlig, så tror jeg ikke, at nVida betragter AMD som en reel konkurrent, andet end på grafikkortområdet (med rette), og kan - for så vidt - være ligeglad med deres salg af CPU'er. Men der er ikke noget, nVidia hellere vil, end at smøre sand i vaselinen hos Intel. Hvad gør nVidia?
De siger: "Fint. I har en processor der sparker numse. I har godt nok et samarbejde med Havok ( dermed også indirekte - Intel), men come on. Det kan I da ikke mene seriøst?! Nej se nu her. Kig lidt på vores åbne platform, og kom ikke og sig, at det er gode sager... Come ooon ;-)".
Hvem vinder?
Det gør ATi. De får adgang til det bedste fra begge verdener. nVidia sparker til Intel og Intel... tjah. De kæmper med en teknologi de færreste tror på. Hvorfor?
Jo. Fordi deres raytracing rent faktisk er ret interessant. Problemet er blot... Intels kraftigste CPU'er, ligger og roder på 50 GFLOPS. Til sammenligning, så er der hvad der minder om 1 TFLOP på et HD3870... Og de er fuldt ud disponible (om man vil), da de ikke skal tage sig af OS, antivirus,LimeWire osv.
Et moderne Geforce kort, kører måske 6-700 MHz på shaderne. Det er langt fra de 3.0 GHz en Intel processor med fire kerner kører med. Men, og det er hér finten kommer ind i billedet. Der sidder over 200 "kerner" på et moderne grafikkort.
Der er masser af saft og kraft i sådan et kort. Hvis jeg var spiludvikler, og skulle implementere fysik i mit spil, så ved jeg godt hvad jeg ville gøre:
1: Hvilken CPU platform er den mest udbredte? Intel eller AMD?
2: Hvilket GPU platform er den mest udbredte? nVidia eller ATi?
Jeg tager #2. Især da begge platforme kan køre med min software. AMD kan være ligeglad, da grafikdevisionen sidder på teknologien. Intel kan sidde og trille tommelfingre og sælge til workstationbrug.
Wee...
Læs mere hér: http://kortlink.dk/tomshardware/5gy4