nVidia SDK baner vejen for ATi

Diverse d.  09. juli. 2008, skrevet af NoNig 10 Kommentarer.  Vist: 1466 gange.



Det skal ikke være nogen hemmelighed, at jeg både hader og elsker det grønne hold, fra Guds eget land.

På den ene side, så er det imponerende, hvordan de kan vende markedskræfter. Både med, og uden hjælp fra andre. Især når man ser på deres anstrengelser, for at fjerne CPU'en fra ligningen, og få grafikkort til at stå lig med "det hele".

PhysX er absolut ingen undtagelse. Det er åbenlyst for enhver, skal computergrafik se realistisk ud, så nytter det ikke noget med de flotteste teksturer, lys, røg og spejlingseffekter. Det hele skal bindes sammen, og her på Jorden, har vi enheden "Newton" til formålet.

Denne lille engelske matematiker formulerede nogle af grundpillerne i moderne videnskab. Det kan lyde lidt voldsomt, sådan at sammenligne computerspil med seriøs forskning. Ikke desto mindre, så er det lige præcis hvad nVidia gør, hvad ATi gør, hvad AMD gør og især hvad Intel gør.

Fremtiden for spil, ligger er mere realistiske fysikberegninger. Kan man få fysikken til at falde på plads, kan man implementere langt mere dynamiske elementer i det digitale univers. Om så det er længdekast med stormtropper eller nedskydning af højhuse på tid.

Der har eksisteret to større platforme, om man vil, til fysik, i et stykke tid. Den ene, Havok, velkendt og velrennomeret, blev opkøbt af Intel og er nu således et underselskab af 'the big blue' [hø hø].

Den anden, AGEIA PhysX, blev - ironisk nok - opkøbt af nVidia, der sidenhen har presset på, for at bevise GPU'ens nødvendighed, i en moderne computer. Intel har, naturligvis, interesse i det modsatte, og det er to voldsomme kræfter der her er på spil.

Midt i det hele, har vi ATi. Lillebitte ATi, opkøbt af et skrantende AMD og midt i panikken kom HD 3xxx-serien. Et los i løgposen til de store, der med en vis nervøsitet afventede det næste træk fra de gale Canadiere.

Fordelen ved nyere grafikkort (eller, deres GPU) er, at kortene er ret så meget programmérbare. Dvs. har man de rette skills, så er der ingen grænser for, hvad du kan gøre med kortet.

Nu er det så det til gengæld bliver RIGTIG interessant.

Slagsmålet er kun begyndt, og som en anden digital udgave af den kolde krig, trækker fronterne op og himlen mørkes. Pludselig smider ATi deres HD 4xxx serie på markedet. Ikke alene sparker den røv, men den sparker endnu mere røv pr. krone/øre, end nVidias kort, og den slags gør avs.

Især når konkurrenten anvender teknologi, der hører under den processorgigant, man gerne vil drille lidt.

For at være ærlig, så tror jeg ikke, at nVida betragter AMD som en reel konkurrent, andet end på grafikkortområdet (med rette), og kan - for så vidt - være ligeglad med deres salg af CPU'er. Men der er ikke noget, nVidia hellere vil, end at smøre sand i vaselinen hos Intel. Hvad gør nVidia?

De siger: "Fint. I har en processor der sparker numse. I har godt nok et samarbejde med Havok ( dermed også indirekte - Intel), men come on. Det kan I da ikke mene seriøst?! Nej se nu her. Kig lidt på vores åbne platform, og kom ikke og sig, at det er gode sager... Come ooon ;-)".

Hvem vinder?

Det gør ATi. De får adgang til det bedste fra begge verdener. nVidia sparker til Intel og Intel... tjah. De kæmper med en teknologi de færreste tror på. Hvorfor?

Jo. Fordi deres raytracing rent faktisk er ret interessant. Problemet er blot... Intels kraftigste CPU'er, ligger og roder på 50 GFLOPS. Til sammenligning, så er der hvad der minder om 1 TFLOP på et HD3870... Og de er fuldt ud disponible (om man vil), da de ikke skal tage sig af OS, antivirus,LimeWire osv.

Et moderne Geforce kort, kører måske 6-700 MHz på shaderne. Det er langt fra de 3.0 GHz en Intel processor med fire kerner kører med. Men, og det er hér finten kommer ind i billedet. Der sidder over 200 "kerner" på et moderne grafikkort.

Der er masser af saft og kraft i sådan et kort. Hvis jeg var spiludvikler, og skulle implementere fysik i mit spil, så ved jeg godt hvad jeg ville gøre:

1: Hvilken CPU platform er den mest udbredte? Intel eller AMD?
2: Hvilket GPU platform er den mest udbredte? nVidia eller ATi?

Jeg tager #2. Især da begge platforme kan køre med min software. AMD kan være ligeglad, da grafikdevisionen sidder på teknologien. Intel kan sidde og trille tommelfingre og sælge til workstationbrug.

Wee...

Læs mere hér: http://kortlink.dk/tomshardware/5gy4
[G.N.U.]
 
Elitebruger
Tilføjet:
09-07-2008 06:51:24
Svar/Indlæg:
2175/21
interessant synspunkt/problem for amd/ati intel og nvidia....med 3 spillere der alle har noget i klemme forskellige steder så er det ret interessant......


Galvatron
 
Elitebruger
Tilføjet:
09-07-2008 08:48:22
Svar/Indlæg:
650/57
Interessant, men jeg synes dog ikke det er løsningen.
GPU'en er en flaskehals. Overlad al fysik beregning til den og der er enorme latencies.
PhsyX er da fint nok og kan supplere CPU'en, men hvis AMD/ATi og Intel får gang i Havok så vil jeg foretrække deres løsning.
Problemet er jo at udnyttelsen af grafikkort, og grunden til det aldrig vil overtage fysik udregningerne i den forstand, er nogle helt andre. Det væsentligste ankepunkt er, at modellen er for kompliceret at kode, og skaber ligeså mange problemer som den løser.
I dag bliver hele kernen i fysik, simulation, lyd mv. udregnet på CPU, og derfra sendt videre til grafik og lydkort. Skulle grafikkortet tage over, ville de introducere en meget kompleks måde at udføre det på samt en fandens masse ventetid imellem CPU og grafikkort(ene) og evt lydkort/chip. Altså vi får virkelig høj latency.
Men det handler jo så også om, hvilke dele grafikkortet kan overtage og evt supplere med. Det er ikke rigtig muligt at bruge grafikkort til de essentielle udregninger, som ændrer spillets interaktion, men det kan overtage opgaver, som visuelt giver dig lidt ekstra for pengene, men ikke hvordan spillet bliver udført - altså ligesom med Agiea PhsyX.

David O'Meara (Havok director), har jo også fremlagt, at den primære drivkraft i fysik udviklingen er og bliver CPU'en, ikke grafikkortet, da dette er ønsket fra spil-udviklerne - udover selve kernen i fysik udregningerne, kan grafikkortet få lov til at accelerere fysikken yderligere.


1EaR
 
Elitebruger
Tilføjet:
09-07-2008 10:23:55
Svar/Indlæg:
5750/124
Til sammenligning, så er der hvad der minder om 1 TFLOP på et HD3870... pænt grinern, tror du enten mener HD3870x2 eller HD4850/70


FnaX
 
Elitebruger
Tilføjet:
09-07-2008 13:12:25
Svar/Indlæg:
4156/111
Hvad med at bruge nogen af de kerner som spilproducenterne åbent bart alligevel ikke gider at bruge, til at lave et par fysik beregninger? 🙂

Dual core understøttet spil, og dual core til fysik! 😀 100% udnyttels af Quad 😲


comment
 
Elitebruger
Tilføjet:
09-07-2008 18:30:16
Svar/Indlæg:
1230/171
#2: Enter Larrabee :yes:

Jeg vil gætte på, at Intel kommer til at sidde og lave andet - og meget mere -, end at trille tommelfingre og sælge til workstationbrug.

Vi kommer i øvrigt ikke til at se fuldt dynamiske spil foreløbig, alene af den grund, at den AI, der skal til, for at håndtere den ekstreme kompleksitet, der vil opstå, ville resultere i et slide-show FPS niveau. Hvis nogen er i tvivl om problemets omfang, vil jeg foreslå, at de starter CS:S med 40 NPC'er, for at få lidt hands-on erfaring. Mine egne erfaringer er gjort med den dual-core CPU, der sidder i min maskine pt. Da Valve's Source engine er optimeret til multi-core processorer (hybrid multi-threading), skulle reslutatet blive bedre med quad-core processorer.


red_martians
 
Moderator
Tilføjet:
09-07-2008 19:43:46
Svar/Indlæg:
7881/1165
Latency er netop fordelen ved grafikkort. Der reelt ingen. Hvis man nu kunne flytte alle beregninger over på grafikkortet, ville verdenen teoretisk set være et bedre sted.
Der vil altid være en kerne til rådighed og der vil altid være lidt ekstra plads alle steder. CPU'en er for langsom, og i spiludviklernes og snart softwareudviklernes verden er CPU'en second choice. Alle avancerede beregninger vil kører flere 100gange hurtigere på et grafikkort. og næste år er der måske flere tusinde gange. Der findes lydsoftware til shaders, fysik software, flydende kommatalsoftware. Flere programmer som adobe er begyndt at tage del i grafikkortet.
Jeg tror sgu de har ret. Intel har ikke fattet pointen. Og kun pga. deres størrelse har de et talerør der kan forkludre det hele til deres fordel.
Jeg kan næsten love alle på forhånd at Intels grafikkort bliver et flop. Både nVidia og ATi har helt sikkert allerede en plan i ærmet der kommer til at gøre rigtig ondt. Se hvordan de fik smadret Ageia med havok. SLi-overraskelsen til ATi. Udrydelsen af 3dfx og rampage, næsten samme historie med XGI og PowerVR, S3, trident, matrox og Intels sidste satsning på grafikkort.


NoNig
 
Elitebruger
Tilføjet:
09-07-2008 20:58:01
Svar/Indlæg:
23132/740
-> #6

Derudover, selv hvis Raytracing og "semi"-dedikeret fysik bliver en succes. Så kræver det et minimum af kræfter, at få selvsamme til at fungere med et moderne ATi- eller nVidia grafikkort.


Retro
 
Elitebruger
Tilføjet:
10-07-2008 01:54:34
Svar/Indlæg:
1643/172
Jeg har hørt en udtalelse på et eller andet forum på nettet om at PhysX aviklet igennem ATI simpel shader konstruktion skulle kunne køre langt bedre end ved bruge af Nvidias mere komplekse shader typer. Da en fyisk beregning er noget der skal hurtigt igennem og ikke behandles alt for længe. Så i teorien skulle PhysX igennem ATI 800 shader skalere langt bedre på et ATI baseret kort end på Nvidias egne kort, men dette kommer vel meget an på hvordan CUDA API'en bliver kodet til ATI kort, men i teorien kunne fysiske beregninger blive udført mere effektivt på et ATI kort end på et Nvidia kort.

Men syndes det er plat at Nvidia hurtigt smækker PhysX API igennem CUDA API'en frem for at lave en 3dfx glide API udgave der køre over CUDA API'en og derved giver alle Nvidia CUDA supportede produkter mulighed for at køre alle tidligere glide udviklede spil. Eller at Nvidia måske puster liv i glide API'en ved at udvikle Glide version 4 med indbygget PhysX API support som en universel standard på GFX marked. For at få slået DX dominansen på GFX API marked tilbage.

Men vis vi ser på den anden side af fysik API kampen mellem Nvidia PhysX og nu Intel Hovak. Så virker Hovak på Linux/Mac/PS3/Xbox360 osv det gør PhysX ikke. Da den er bundet til Windows platformen. Så hvilken en fordel har hovak den er platforms uafhængig, som er noget spil udvikler godt kan lig og det er vel en af de mange grunde til at der findes 4x så mange Hovak understøttede spil frem for spil med PhysX support.


Nightcover
 
Overclocker
Tilføjet:
10-07-2008 18:50:23
Svar/Indlæg:
620/11
#8 Løgn. Jeg ved, at Physx kan virke på Wii, PS3, og Xbox 360. Hvordan ved jeg ikke.


hamderD
 
Elitebruger
Tilføjet:
17-07-2008 00:16:40
Svar/Indlæg:
7263/260
Lækkert læsning der NoNig 🙂