Nyt firma træder ind på grafikhardware scenen

Diverse d.  12. marts. 2009, skrevet af scheea2000 33 Kommentarer.  Vist: 2289 gange.

Caustic Graphics har annonceret at de vil lancere et PCIe accelerator kort til Ray Tracing, som skulle rendere 20 gange hurtigere, end nuværende CPU/GPU implementationer.



Det åbner op for at realtidsapplikationer - som eksempelvis spil - kunne blive renderet med ray tracing ved brug af alm. computerhardware, samt dette acceleratorkort. Caustic fortæller også at man vil kunne kombinere flere kort for at øge hastigheden. I første omgang vil Caustic Graphics dog satse på at accelerere offline renderes.

Kortet bliver programmeret vha. et modificeret OpenGL API og arbejder i kombination med det almindelige grafikkort i computeren.

Ray Tracing kan (i de fleste tilfælde) producere langt mere realistiske 3D scener og medtage en lang række forskellige lysfænomener, eksempelvis kaustikker, som er svært at gøre korrekt med alm. grafikkort. Ray tracing er dog også væsentligt mere beregningstungt.



Derfor er det naturligvis interessant, hvis ray tracing kan bruges i forbindelse med realtidsapplikationer, som eksempelvis spil, så realismen virkelig kunne højnes.

Ray tracede spil er dog set før. Eksempelvis har Intel demonstreret en ray traced version af Enemy Territory: Quake Wars i 720p på et 16 core system.

Nyheden her er, at ét 'billigt' PCIe kort angiveligt kan gøre det hurtigere, og Caustic Graphics har allerede meldt ud, at de kommer med et 2. generations kort inden 2010, som skulle gøre det 200x hurtigere.

Caustic Graphics annoncerer produkterne nærmere i april 2009

Læs mere hos http://www.caustic.com/caustic-rt_caustic-one.php
Moze15
 
Superbruger
Tilføjet:
12-03-2009 23:17:12
Svar/Indlæg:
1235/80
Kan det, rent teoretisk, lade sig gøre? Jeg mener: PCIe
Hvordan vil de nogensinde overføre de kæmpe datamængder uden lag?


genuz
 
Elitebruger
Tilføjet:
12-03-2009 23:22:11
Svar/Indlæg:
798/19
Der er godt nok lang vej til realtime rendering af billeder som det brugt i artiklen, men jeg er da optimistisk omkring det Caustic halløj.


beatmore
 
Elitebruger
Tilføjet:
12-03-2009 23:30:08
Svar/Indlæg:
3943/44
Det skal nok virke når de siger det, men de får i hvert fald et problem!

Support - der vil nok gå noget tid inden det er noget alle spil kan køre med...

Det failer sikkert lige som PhysX (dog på vej frem efter Nvidia købte det)


NoNig
 
Elitebruger
Tilføjet:
12-03-2009 23:47:24
Svar/Indlæg:
23132/740
Finally! 😎


Kvens
 
Overclocker
Tilføjet:
13-03-2009 00:30:10
Svar/Indlæg:
337/45
Vældigt interessant om AMD eller nVidia opkøber dem inden for rum tid. Hvis teorien er rigtig, så har Caustic fat i noget, som en af de to giganter ønsker at få fat i.
Det skulle ikke undre mig, hvis AMD blev dem der opkøbte dem og implementerede det i deres gfx-kort. Men som #1 siger, så kræver min lille ønsketænkning osse at interfacet skal kunne håndtere langt større mængder af data, bye bye PCI-E!

Kræver osse at spilproducenterne begynder at understøtte dette. Håber det går hurtigere end PhysX' fremgang på det sidste.


NoNig
 
Elitebruger
Tilføjet:
13-03-2009 00:40:42
Svar/Indlæg:
23132/740
-> #5

Den, mener jeg, åbenlyse kandidat må være AMD, eftersom Intel presser på med Larrabee.

Spilproducenterne skal bare til at oppe sig. De har ligget på den lade side i alt for mange år nu, og det er på tide med noget nytænkning.


Moze15
 
Superbruger
Tilføjet:
13-03-2009 00:51:24
Svar/Indlæg:
1235/80
#6
Hvad vil der ske hvis Intel opkøbte dem? Det er først der jeg synes at det bliver interessant.


NoNig
 
Elitebruger
Tilføjet:
13-03-2009 00:58:08
Svar/Indlæg:
23132/740
-> #7

Så sidder Intel med et godt greb om bollerne på AMD. Både grafik- og CPU devisionen.

AMD arbejder sammen med Havok, der hører under Intel.
nVidia har PhysX fra det opkøbte AGEIA.

Intel sidder derfor med en god portion licens til både CPU'er, grafikkort og ikke mindst avancerede fysikberegninger.

AMD sidder tilbage med teknisk overlegne grafikkort, som nVidias "The way it's meant to be played" pisser op og ned af ryggen. Samtidig, så vil nVidia gerne lave CPU'er, men mangler licensen. Den har VIA, der selv opkøbte S3.

Så i princippet har vi 4 store spillere på markedet, der hver især sidder med fede teknologier, x86 licenser og lysten til at skære struben over på konkurrenten så snart muligheden byder sig.

Hvis Intel opkøbte ovenstående firma, så ville de smide pengene ud af vinduet. De har selv en devision dedikeret til at arbejde med raytracing.

Da både nVidia og AMD har grafikkort der leverer 1 TFLOPS, så skal Intel til at vende vrangen på deres ingeniører der er håbløst bagefter, hvis vi kigger på Larrabee.

Det er bl.a. derfor jeg er så fandens spændt på at se hvad det er den chip kan der gør, at Intel holder kortene [hø hø] så tæt ind til kroppen. Der slipper nada information ud (ikke engang af "bagvejen") og vi har kun set tech-demos der kører på to Quad-core CPU'er (rundt regnet 100 GFLOPS).

Nu ved jeg ikke hvad du kender til raytracing, men idéen er genial, idet du rent "fysisk" kan simulere samtlige fænomener der eksisterer. Derfor forventer jeg også, at raytracing kommer til at varsle "genkomsten" af avanceret fysik i spil.

Nu snakker jeg ikke bare kasser der vælter og mure der springer fra hinanden. Jeg snakker om tågeeffekter, partikler en masse, sågar "tyngdekraft" der kan implementeres globalt som en ray der simpelthen trækker nedaf.

Det bliver SÅ fedt, når spilprogrammørerne lærer at få fingeren ud af deres højhellige "se mig, hvor er jeg dygtig til Linux"-røvhuller. Undskyld mit fransk.


FnaX
 
Elitebruger
Tilføjet:
13-03-2009 03:17:19
Svar/Indlæg:
4156/111
Endelig! Nu skal vandet flyde! 😀


unnamet
 
Passiv Hwt crew
Tilføjet:
13-03-2009 06:51:47
Svar/Indlæg:
5258/240
hvad er forskellen på det kort og et "normalt" gfx?

og hvorfor kan et normalt gfx ikke gøre det samme?


#11
1EaR
 
Elitebruger
Tilføjet:
13-03-2009 09:06:04
Svar/Indlæg:
5750/124
#10 Dette kort er dedikeret til RayTracing, og så skal det hjælpe hele systemet med beregninger. Kortet kan rent faktisk mindre end alm. GFX som vi kender dem, efter som det heller ikke kan smide et billed ud (ingen video udgang), altså det er afhængigt af andet HW. Det vil så tilgengæld kunne hjælpe en hel del på hastigheden.

#3 Det behøves jo ikke kun bruges til spil, vel da 😀 Hvad med filmindustrien, de må da klappe i deres små hænder når de læser sådan noget, for nu kan de måske skærer deres produktionstid gevaldigt ned, for dem som laver digitale fobedringer / transformer animationer osv. 😎


KingGuru
 
Elitebruger
Tilføjet:
13-03-2009 09:43:38
Svar/Indlæg:
624/173
#10
Jeg kan forestille mig at det tilsvarrende alm gfx har en masse stream processorer på en kerne, da ray tracing på mange områder kan udnytte parallelisme, da man kan sætte en tråd på at lave en stråle(ray). Problemet her at at ray tracing, i forbindelse med global belysning (global illumination) som er det der får det visuelle til at se realistisk ud, skal løse noget der hedder render equation. denne er åbenlyst rekursiv, og her kommer alm grafikkort lidt til kort. der er veje uden om det, men ikke helt optimale på nuværende tidspunkt.

#7 fin lang analyse af de forskellige firmaer.. men openCL er jo også på vej ud i hvert fald burde gøre at vi også fik mere adgang til de kræfter der ligger i AMD kort, da det jo er på tværs af alle de store spillere.. Apple, IBM, Intel, Nvidia, AMD.. .. kan ikke huske om via er med her, egentlig.. men der er en del firmaer med..


scheea2000
 
Superbruger
Tilføjet:
13-03-2009 12:40:07
Svar/Indlæg:
818/58


#14
E2X
 
Elitebruger
Tilføjet:
13-03-2009 13:38:40
Svar/Indlæg:
4018/217
Det kort ser ret så dyrt ud må jeg indrømme...

Håber dog at prisen blive god for ellers har jeg svært ved at se at det skulle vinde udbredelse


red_martians
 
Moderator
Tilføjet:
13-03-2009 13:42:06
Svar/Indlæg:
7881/1165
Ray-tracing er pt et sidespor. Det er ok at arbejde med teknologien, men nu da grafikkort har så stor fokus på ydelse, er det helt forkert at satse på ray-tracing. Kom der et spil idag, bygget på raytracing ville det kræve næsten uendelige kraftig grafikprocessor, hvis den også skal indeholde andre elementer og høj opløsning. og det tror jeg slet ikke på, set i lyset af at over 50% af alle solgte computere bruger integreret grafikdel, og at man satser mere og mere på strømforbrug osv. Raytracing kan måske bygges ind i chips om 10år eller til proffesionelt brug. Er ret sikker på at intels larrabee-løsning kun vil kunne bruges til folk med et ekstremt behov indtil videre. Måske kan jeg blive overrasket når de kommer, men tror at spilmarkedet må vente rigtig længe på dette endnu. og sådan en løsning som den her, kan vel knapt nok spille et moderne spil uden at gå i knæ, da det kræver rigtig meget andet.


NoNig
 
Elitebruger
Tilføjet:
13-03-2009 13:50:39
Svar/Indlæg:
23132/740
-> #15

Jeg er fuldstændig enig med dig. Men synes du ikke samtidig, at det er en ufatteligt spændende teknologi?

Hvis man kunne lave en form for kvantiseret raytracing og så kombinere det med noget alá AF, så ville man vel kunne spare enorme mængder regnekraft?

Spilprogrammørerne behøver jo ikke at gøre det så omfattende, at de opretter rays for alt, blot det "synlige" i z-planet.


Miccim
 
Elitebruger
Tilføjet:
13-03-2009 18:43:58
Svar/Indlæg:
3233/128
#15 Hvis vi alle havde den holdning til fremskridtet, at det er et sidespor så ville vi alle rende rundt og være glade for hjulet og ilden. 😉



red_martians
 
Moderator
Tilføjet:
13-03-2009 21:25:59
Svar/Indlæg:
7881/1165
#17: For mig er det lidt som at tro på fusions-energi i morgen, fedt at forske i det. men tror vi alle er klar over at det nok tager et par år bare at få det op at stå. også selvom man fandt en fornuftig metode i morgen.
Det skal nok komme, jo mindre der kommer noget andet i vejen. og det er jeg slet ikke i tvivl om der gør.


Shadowhunter
 
Elitebruger
Tilføjet:
13-03-2009 22:42:39
Svar/Indlæg:
5474/39
#18

syntes ikke du kan sammen ligne fusions-energi med det her. It teknologien udvikler sig hurtigt Computeren er ikke ret gammel når man tænker over det.... 🙂
Tror også folk for mange år siden heller ikke troede på computeren ville få en stor udbreddelse.


#20
FnaX
 
Elitebruger
Tilføjet:
13-03-2009 23:37:41
Svar/Indlæg:
4156/111
#19

Internettet blev også dømt til fiasko i sine meget unge dage 😀


KingGuru
 
Elitebruger
Tilføjet:
13-03-2009 23:52:53
Svar/Indlæg:
624/173
Dernæst sker der kvante spring inden for parallelisme som store dele af ray tracing kan gøre brug af..
tag ex photon mapping, af vores alle sammen Henrik Wann Jensen.. der løber kombinerer du et gennemløb med at skyde fotoner med en ex monte carlo ray tracing.. og så begynder det at ligne noget. Der er ingen tvivl om at nøglen her hedder en fix måde at undgå de dybe rekursive kald, og Photon mapping er klart en måde at minimere dette..

så jeg tror ikke at ray tracing er en futuristisk ting der går væk igen (selve render equation er jo også tilbage fra 86, så vidt jeg husker, så det har været nogle år under vejs)


Vest-AALB-DK
 
Superbruger
Tilføjet:
14-03-2009 11:58:20
Svar/Indlæg:
247/2
sweet endelig noget nyt 🙂


da9els
 
Chefredaktør
Tilføjet:
14-03-2009 20:32:07
Svar/Indlæg:
4438/91
Jeg kan ikke se hvad begrænsningen i data mængden skulle være ? Kan PCI-E x16 ikke skubbe 8GB/s igennem? mon ikke det dækker 24 fps (+/-) i HD (+/-) .. Kortet regner bare en masse xtra via 'simple' instruktioner. Så data mængden behøver ikke stige så voldsomt.
Men jeg tvivler på at det blir næste år vi får lov til at se raytracede spil. Det raytracede billede, af glas og terninger, der er i artiklen har nok taget et sted mellem 1 time og 2 dage at raytrace... og 200 gange hurtigere inden 2010 (fed film btw.) så kan vi være heldige at få Pacman Raytraced Ed. som kører nogenlunde på det sygeste setup. Så om 3-4 år. Eller som en tilføjelse / addon til DirectX? Dunno?


genuz
 
Elitebruger
Tilføjet:
16-03-2009 16:39:08
Svar/Indlæg:
798/19
#23

Du kan allerede finde små film på youtube med raytracing i realtime, der er en lille smule bedre end pacman grafik, så du er vist lige 5 år bagefter med dine profetier :)


da9els
 
Chefredaktør
Tilføjet:
16-03-2009 16:54:55
Svar/Indlæg:
4438/91
#24 .. prøv engang at se på de klip igen og se hvor få objekter der er i de scenes, og hvor få glaseffekter der er. og så prøv at hent PovRay og se hvor lang tid det tar på din maskine at trace et par simple objekter, bare med få rays. og så gæt på hvad de har brugt af hw til at lave de realtids film på.
sføli kan jeg ikke forudse den teknologiske udvikling på raytracing området. men jeg gætter på 5 år før vi får et 'realistisk' realtime fully /raytraced spil i stil med det som de unge vil ha i dag.


scheea2000
 
Superbruger
Tilføjet:
16-03-2009 17:27:48
Svar/Indlæg:
818/58
#23 Overvej, hvorfor moderne grafikkort skal bruge PCIe 2.0 x16 😉
Desuden er kortet også kun PCIe x4, så vidt jeg kan se.




Anyway:

AMD påstår: "Realtime Raytracing på 2x4870". Geometrien er vistnok voxelbaseret, så hut jeg hvisker... 😛

http://www.youtube.com/watch?v...


da9els
 
Chefredaktør
Tilføjet:
16-03-2009 19:25:59
Svar/Indlæg:
4438/91
#26 .. ja, netop? så der burde være båndbrede nok?! Jeg tvivler på Cinema 2.0 er raytracing. Hvor har du læst det henne?

Som sagt... prøv at hente PovRay og lav et par modeller ...og kom igen og sig at realtime raytracing er i morgen.


scheea2000
 
Superbruger
Tilføjet:
16-03-2009 20:17:56
Svar/Indlæg:
818/58
#27

http://www.theinquirer.net/inq...
http://tlundmark.blogspot.com/...
http://www.hexus.net/content/i...

Flere?

Anyway. Du kan jo ikke tage en offline render, måle hastigheden og dermed bevise at 'real-time ray tracing' ikke er mulig (nu). Heck, jeg har sgu selv skrevet en simpel real-time ray tracer. Intel har fremvist en Ray traced version af Quake - bevares kvaliten var (dårligere eller) tilsvarende en rasteriseret version og ofte skal du gå på kompromis med kvalitet, for at få real-time frame rates med en ray tracer.
Som tidligere nævnt er Ray Tracing ikke hurtigere på GPU end en god CPU implementation grundet arkitektur, men udviklingen for GPU'er går dog i den rigtige retning: De bliver mere generelle / fleksible og fremforalt hurtigere... GPU' erne har GFLOPS'ne og så snart de kan udnyttes, så tror jeg vi ser nogle meget (og mere) interessante tech demoes...


da9els
 
Chefredaktør
Tilføjet:
16-03-2009 20:31:58
Svar/Indlæg:
4438/91
#28 .. Jeg har set Quake demo'en og det er ikke hvad jeg forbinder med fotorealistisk gaming! jeg siger bare at forholdene ikke passer! der kommer ikke blasting FPS'er i fotorealistisk real time raytracing inden 2010, hvor meget jeg end gerne ville!!!
selvfølgelig kan jeg ta en hvilken som helst render og sammenligne med. når det tar 5 min for mig at lave et klammer raytraced billede - kan der med de rigtige algoritmer og hw klart klemmes mere ud af citronen. men ikke 600 gange hurtigere så jeg kan få 30 fps.


scheea2000
 
Superbruger
Tilføjet:
16-03-2009 21:57:19
Svar/Indlæg:
818/58
Blasting? Prøv så lige at se på ATI tech demoen igen. Jeg delte bare ikke dit synspunkt at man kun kan trace få objekter real time i en scene. Jeg synes man er noget imponerende langt, men ellers enig langt hen ad vejen: vi får nok ikke high-end FPS spil at se de næste par år, men jeg tror man vil se mindre, eksperimenterede spil dukke op...?


NoNig
 
Elitebruger
Tilføjet:
16-03-2009 22:20:59
Svar/Indlæg:
23132/740
Hov... nej vent lige.

Det var ikke det med fotorealistisk grafik jeg snakkede om. Det er jeg klar over kommer til at tage noget tid. Det er mere selve teknikken der pirrer min interesse 🙂


genuz
 
Elitebruger
Tilføjet:
16-03-2009 22:36:29
Svar/Indlæg:
798/19
#25 læs nu hvad du selv skriver...

så kan vi være heldige at få Pacman Raytraced Ed. som kører nogenlunde på det sygeste setup. Så om 3-4 år. Eller som en tilføjelse / addon til DirectX? Dunno?

Hvis du går ind på youtube og søger på realtime raytracing, så finder du altså nogle klip med grafik, der er en del pænere end pacman.


da9els
 
Chefredaktør
Tilføjet:
17-03-2009 08:40:10
Svar/Indlæg:
4438/91
#30 .. Helt enig. Jeg er bare pissed over det kun er AMD der må se den i real-time. Jeg tror simpelthen ikke på det 'bare' er en R770 chip. Men nu får vi at se når der sker noget mere på fronten. Men WOOOOHA! Cinema 2.0 fik mig næsten at lægge en dej, første gang jeg så det.

#32 .. Hvordan tror du da PacMan redesignet, fotorealistisk ser ud? Brug det raytracede billede i artiklen som reference.