nVidia SDK baner vejen for ATi

Litteratur d.  09. juli. 2008, skrevet af NoNig
Vist: 1178 gange.

NoNig
 
Elitebruger
Tilføjet:
09-07-2008 06:21:29
Svar/Indlæg:
23132/740
Både og. nVidias CUDA har været meget omdiskuteret. Se hvad de grønne hold pønser på.

Læs hele nyheden her: http://www.hwt.dk/newsdetails....
[G.N.U.]
 
Elitebruger
Tilføjet:
09-07-2008 06:51:24
Svar/Indlæg:
2175/21
interessant synspunkt/problem for amd/ati intel og nvidia....med 3 spillere der alle har noget i klemme forskellige steder så er det ret interessant......


Galvatron
 
Elitebruger
Tilføjet:
09-07-2008 08:48:22
Svar/Indlæg:
650/57
Interessant, men jeg synes dog ikke det er løsningen.
GPU'en er en flaskehals. Overlad al fysik beregning til den og der er enorme latencies.
PhsyX er da fint nok og kan supplere CPU'en, men hvis AMD/ATi og Intel får gang i Havok så vil jeg foretrække deres løsning.
Problemet er jo at udnyttelsen af grafikkort, og grunden til det aldrig vil overtage fysik udregningerne i den forstand, er nogle helt andre. Det væsentligste ankepunkt er, at modellen er for kompliceret at kode, og skaber ligeså mange problemer som den løser.
I dag bliver hele kernen i fysik, simulation, lyd mv. udregnet på CPU, og derfra sendt videre til grafik og lydkort. Skulle grafikkortet tage over, ville de introducere en meget kompleks måde at udføre det på samt en fandens masse ventetid imellem CPU og grafikkort(ene) og evt lydkort/chip. Altså vi får virkelig høj latency.
Men det handler jo så også om, hvilke dele grafikkortet kan overtage og evt supplere med. Det er ikke rigtig muligt at bruge grafikkort til de essentielle udregninger, som ændrer spillets interaktion, men det kan overtage opgaver, som visuelt giver dig lidt ekstra for pengene, men ikke hvordan spillet bliver udført - altså ligesom med Agiea PhsyX.

David O'Meara (Havok director), har jo også fremlagt, at den primære drivkraft i fysik udviklingen er og bliver CPU'en, ikke grafikkortet, da dette er ønsket fra spil-udviklerne - udover selve kernen i fysik udregningerne, kan grafikkortet få lov til at accelerere fysikken yderligere.


1EaR
 
Elitebruger
Tilføjet:
09-07-2008 10:23:55
Svar/Indlæg:
5750/124
Til sammenligning, så er der hvad der minder om 1 TFLOP på et HD3870... pænt grinern, tror du enten mener HD3870x2 eller HD4850/70


FnaX
 
Elitebruger
Tilføjet:
09-07-2008 13:12:25
Svar/Indlæg:
4156/111
Hvad med at bruge nogen af de kerner som spilproducenterne åbent bart alligevel ikke gider at bruge, til at lave et par fysik beregninger? 🙂

Dual core understøttet spil, og dual core til fysik! 😀 100% udnyttels af Quad 😲


comment
 
Elitebruger
Tilføjet:
09-07-2008 18:30:16
Svar/Indlæg:
1230/171
#2: Enter Larrabee :yes:

Jeg vil gætte på, at Intel kommer til at sidde og lave andet - og meget mere -, end at trille tommelfingre og sælge til workstationbrug.

Vi kommer i øvrigt ikke til at se fuldt dynamiske spil foreløbig, alene af den grund, at den AI, der skal til, for at håndtere den ekstreme kompleksitet, der vil opstå, ville resultere i et slide-show FPS niveau. Hvis nogen er i tvivl om problemets omfang, vil jeg foreslå, at de starter CS:S med 40 NPC'er, for at få lidt hands-on erfaring. Mine egne erfaringer er gjort med den dual-core CPU, der sidder i min maskine pt. Da Valve's Source engine er optimeret til multi-core processorer (hybrid multi-threading), skulle reslutatet blive bedre med quad-core processorer.


red_martians
 
Moderator
Tilføjet:
09-07-2008 19:43:46
Svar/Indlæg:
7881/1165
Latency er netop fordelen ved grafikkort. Der reelt ingen. Hvis man nu kunne flytte alle beregninger over på grafikkortet, ville verdenen teoretisk set være et bedre sted.
Der vil altid være en kerne til rådighed og der vil altid være lidt ekstra plads alle steder. CPU'en er for langsom, og i spiludviklernes og snart softwareudviklernes verden er CPU'en second choice. Alle avancerede beregninger vil kører flere 100gange hurtigere på et grafikkort. og næste år er der måske flere tusinde gange. Der findes lydsoftware til shaders, fysik software, flydende kommatalsoftware. Flere programmer som adobe er begyndt at tage del i grafikkortet.
Jeg tror sgu de har ret. Intel har ikke fattet pointen. Og kun pga. deres størrelse har de et talerør der kan forkludre det hele til deres fordel.
Jeg kan næsten love alle på forhånd at Intels grafikkort bliver et flop. Både nVidia og ATi har helt sikkert allerede en plan i ærmet der kommer til at gøre rigtig ondt. Se hvordan de fik smadret Ageia med havok. SLi-overraskelsen til ATi. Udrydelsen af 3dfx og rampage, næsten samme historie med XGI og PowerVR, S3, trident, matrox og Intels sidste satsning på grafikkort.


NoNig
 
Elitebruger
Tilføjet:
09-07-2008 20:58:01
Svar/Indlæg:
23132/740
-> #6

Derudover, selv hvis Raytracing og "semi"-dedikeret fysik bliver en succes. Så kræver det et minimum af kræfter, at få selvsamme til at fungere med et moderne ATi- eller nVidia grafikkort.


Retro
 
Elitebruger
Tilføjet:
10-07-2008 01:54:34
Svar/Indlæg:
1643/172
Jeg har hørt en udtalelse på et eller andet forum på nettet om at PhysX aviklet igennem ATI simpel shader konstruktion skulle kunne køre langt bedre end ved bruge af Nvidias mere komplekse shader typer. Da en fyisk beregning er noget der skal hurtigt igennem og ikke behandles alt for længe. Så i teorien skulle PhysX igennem ATI 800 shader skalere langt bedre på et ATI baseret kort end på Nvidias egne kort, men dette kommer vel meget an på hvordan CUDA API'en bliver kodet til ATI kort, men i teorien kunne fysiske beregninger blive udført mere effektivt på et ATI kort end på et Nvidia kort.

Men syndes det er plat at Nvidia hurtigt smækker PhysX API igennem CUDA API'en frem for at lave en 3dfx glide API udgave der køre over CUDA API'en og derved giver alle Nvidia CUDA supportede produkter mulighed for at køre alle tidligere glide udviklede spil. Eller at Nvidia måske puster liv i glide API'en ved at udvikle Glide version 4 med indbygget PhysX API support som en universel standard på GFX marked. For at få slået DX dominansen på GFX API marked tilbage.

Men vis vi ser på den anden side af fysik API kampen mellem Nvidia PhysX og nu Intel Hovak. Så virker Hovak på Linux/Mac/PS3/Xbox360 osv det gør PhysX ikke. Da den er bundet til Windows platformen. Så hvilken en fordel har hovak den er platforms uafhængig, som er noget spil udvikler godt kan lig og det er vel en af de mange grunde til at der findes 4x så mange Hovak understøttede spil frem for spil med PhysX support.


Nightcover
 
Overclocker
Tilføjet:
10-07-2008 18:50:23
Svar/Indlæg:
620/11
#8 Løgn. Jeg ved, at Physx kan virke på Wii, PS3, og Xbox 360. Hvordan ved jeg ikke.


hamderD
 
Elitebruger
Tilføjet:
17-07-2008 00:16:40
Svar/Indlæg:
7263/260
Lækkert læsning der NoNig 🙂