-> #14
Det har som sådan ikke noget med udvikling at gøre. Snarere kampen mod det, ville jeg sige. Det er enormt dyrt at lave nye platforme og teknologier. Derfor er GPGPU'er en ret god forretning. Hvis man ser på regnekraft alene, så er det software der skal klare resten.
Hvis du tænker over det, så har der jo været en minimal udvikling de senere år. ATi har stort set ikke fornyet sig siden Radeon 9700, og nVidia siden Geforce 5 (eller 6, om man vil).
Det skyldes, at der går mange kræfter og penge i, at udvikle en ny chip. Derfor er det lækkert, at man har en kraftig chip, og så skal softwaren klare resten. Igen, konsoller er et godt eksempel på "fast" hardware og dynamisk software.
Jeg har svært ved at forestille mig en PC overleve i så mange år, uden opgraderinger, som en PS2, Xbox360 eller PS3.
Gevinsten er åbenlys. Vi snakker alsidighed og bedre udnyttet regnekraft.
Spørgsmålet er blot, hvordan udnyttelsen bliver?
De næste to spændende skridt bliver fysik og ray-tracing. Med Ray-tracing vil fyisk og grafik indirekte blive langt nemmere at skrive.
Man skal ikke programmere en masse sprites, og det hele kan gøres, ja nærmest, uendeligt interaktivt.
Fysik kan med stor nemhed emuleres via ray-tracing. Det samme gælder partikler, og så begynder vi for alvor at se de 1-2 TFLOPS blive udnyttet.
De geniale?
Selv med at svagt grafikkort, vil teknologien kunne bruges. Der skal ikke diskuteres "Directx 9 vs. Directx 10 osv." - men derimod en direkte skalérbar ydelse, hvor detaljegrader er afmålt i grafikkortets ydeevne.
Ingen FPS eller 3Dmarks. Kun rå regnekraft, udmålt i hvor mange træer man kan vælte. Hvor stort vandfaldet kan blive eller hvor detaljeret tågen er.
Ray-tracing er fremtiden, og både nVidia og ATi gør sig klogt i at overveje det på nuværende tidspunkt.
Der er langt mere regnekraft i deres grafikkort, end i en Intel CPU.
De kører med langt lavere hastighed og hvis vi reelt set skal snakke ydelse pr. watt, så får Intel røveren kørt igennem savklingen 🙂