ATI CUDA Konkurrent

Grafikkort d.  14. november. 2008, skrevet af saiot
Vist: 1212 gange.

saiot
 
Elitebruger
Tilføjet:
14-11-2008 09:13:54
Svar/Indlæg:
7111/480
ja nu kommer ATI snart med en cuda konkuret det er så fedt 😀 der forsvant en af mine + ved nvida som har gjort jeg har valgt dem 🙂
er fra hol og kan læses her http://www.hol.dk/nyheder.aspx... men gør jo ikke noget vi linker til hol da det ikke er en konkurent så 🙂
Anonym20219355916
 
Elitebruger
Tilføjet:
14-11-2008 10:24:42
Svar/Indlæg:
6181/270
#0 hol er efter min mening en konkurrent

det bliver så meget nice i næste månede når ati 8.12 skulle efter sigende komme ud 😀


saiot
 
Elitebruger
Tilføjet:
14-11-2008 10:32:32
Svar/Indlæg:
7111/480
1# ikke i følge the boos 😉


E2X
 
Elitebruger
Tilføjet:
14-11-2008 12:23:26
Svar/Indlæg:
4018/217
det er faktisk rigtig fedt det der :)


bornholm
 
Elitebruger
Tilføjet:
14-11-2008 16:12:09
Svar/Indlæg:
2958/84
Hvor langt tilbage vil denne understyttelse gå, er det kommende gfx-kort eller er 48xx/38xx med på vognen?


NoNig
 
Elitebruger
Tilføjet:
14-11-2008 17:03:05
Svar/Indlæg:
23132/740
-> #0

Jeg kan fortælle dig, at det ikke er en "nyhed". Det har eksisteret til ATi's FireGL kort i en årrække nu. Det eneste "nye" er, at den lanceres sammen med Catalyst. Ganske som CUDA blev lanceret med ForceWare.

Jeg ville ikke kalde AMD for "bagefter". Det er en grove fornærmelse, da ATi længe har været gode til det med GPGPU. Hvis der er nogen som er bagefter, så er det Intel og nVidia. nVidia fik vind i sejlene, efter opkøbet af AGEIA, og kun pga. "PhysX" gad vi at høre om det.

SDK'en til CUDA og SC har været længe ude. Stort set lige siden nVidia snakkede om x86 CPU'er. Det er nok også den eneste reelle grund til, at Intel nu forsøger sig med Larrabee.

Det kunne være lækkert, hvis man i stedet for rastergrafik, gik imod ray-tracing. Især derfor er jeg ekstremt spændt på, hvad Larrabee duer til. Hvis ray-tracing vinder indpas, så vil både ATi og nVidia kunne levere noget af det flotteste grafik. Nogensinde 🙂

-> #4

I teorien burde alle grafikkort med 'streaming processors' kunne gøre brug af det. Men ATi har været "General Purpose" siden R300-kerne. Mere eller mindre.

Jeg har dog en forestilling om, at vi nok "kun" kan gøre brug af det på senere generationer. Måske R600 og opad.


bornholm
 
Elitebruger
Tilføjet:
14-11-2008 18:49:02
Svar/Indlæg:
2958/84
#5 åh, når og Hvad....... Mangler vi ikke en eller anden liste for hvilke gfx'ere der høre til under R 300 / R600 for så nørdet er jeg sku ikke :'-( et gæt 4870 tilhøre måske R 600
😳 jeg ved det ikke 😕


NoNig
 
Elitebruger
Tilføjet:
14-11-2008 18:56:43
Svar/Indlæg:
23132/740
-> #6

R600 er, mig bekendt, 2000-serien og opad 🙂


Emillos
 
Overclocker
Tilføjet:
14-11-2008 19:16:10
Svar/Indlæg:
14079/622
Som NoNig siger, er det ikke noget nyt som sådan. 🙂
Men jeg tror ikke på, at AMD kommer til, at understøtte PhysX, Underlig påstand, at den pågældende HOL-skribent kommer med, efter min mening. Det er almindeligt kendt, at AMD/ATi har valgt at satse på Havok med Intel, og ikke "konkurrentens" PhysX, som dog garanteret kan køres på AMD/ATi's grafikkort relativt let, hvis AMD/ATi gad.

Men håber det bliver stort hos AMD/ATi. :yes:


->#7

Thats right. R600 er den første GPU, med en ægte "Unified Shader"-arkitektur, der gør sådan nogle ting muligt. Så jeg tror du har ret i, at alt fra R600, vil understøtte de nye tiltag; hvis ellers AMD/ATi gider. 🙂
Arkitekturmæssigt er RV670 og R600 jo også i bund og grund ens - og jeg tror ikke, at man vil udelukke kunder, med det velsolgte og udmærkede HD3870.


bornholm
 
Elitebruger
Tilføjet:
14-11-2008 19:50:56
Svar/Indlæg:
2958/84
#7 & 8 tak

#8 Det håber jeg og mange andre nok også at du har ret i, hvis de gider.

Hvis vi nu, alle her inde fra sender dem en mail


#10
Lace
 
Elitebruger
Tilføjet:
14-11-2008 20:03:53
Svar/Indlæg:
2357/72
...kæft, jeg er ved at falde af vognen. 😳
Der var engang man kunne gå ud og købe et gfx og vide det var det bedste. Det ser efterhånden ud som om softwaren halter efter hardwaren, eller tager jeg helt fejl? Nu synes jeg selv jeg har en ganske fin pc, men lige for tiden ser de da ud til, at det er på programmeringssiden der for alvor sker noget.

Er der i virkeligheden et kæmpestort kraftoverskud i vores HW, der bare ikke bliver udnyttet?

Jeg spørger såmænd bare, fordi det bliver sværere med tiden, at finde hoved og hale i det her cirkus...i hvert fald for mig. 🤡


NoNig
 
Elitebruger
Tilføjet:
14-11-2008 20:13:21
Svar/Indlæg:
23132/740
-> #10

"Er der i virkeligheden et kæmpestort kraftoverskud i vores HW, der bare ikke bliver udnyttet [af softwaren]? " - Kort sagt: Ja.


#12
Lace
 
Elitebruger
Tilføjet:
14-11-2008 20:27:42
Svar/Indlæg:
2357/72
#11 Kortere kunne det da ikke siges. 😀

Så skulle man da synes at udfordringen for, fx. spiludviklere, lå i at lave noget virkeligt flot/godt der kunne afvikles på en "menigmands-pc".


NoNig
 
Elitebruger
Tilføjet:
14-11-2008 20:32:08
Svar/Indlæg:
23132/740
-> #12

Det er bestemt også der udfordringen ligger pt. Prøv at kigge lidt på de forskellige API'er (primært DirectX - med dertilhørende Direct3D) og sammenlign det med f.eks. grafikken fra en PS3 eller Xbox 360.

Spiludviklerne til konsollerne, har langt nemmere ved at utilize kræfterne, end udviklerne til PC. Men ellers, så er der jo nærmest "uendlig" regnekraft i en PC.

Problemet ligger blot i, at spiludviklerne ikke har en jordisk chance for at gætte sig frem til, hvilke kombinationer de skal gå efter. Derfor udvikler de deres grafikmotor til at køre efter laveste fællesnævner.

Tag Source som et eksempel. Tænk dig en gang, hvor lækker det hele kunne have set ud, hvis ikke minimumskravet var et DX7 grafikkort (Geforce 2).

Vi har, i dag, grafikkort med regnekraft på omkring 1-2 TFLOPS - Er det ikke hul i hovedet, at man så er begrænset af et forældet grafikkort med ringere ydeevne end et GMA950?!

Jo.

Selv 'Crysis' er ikke designet til at køre i opløsningen 1920x1200.

Så derfor ville det også være hul i hovedet, at snakke om performance i opløsninger over 1680x1050 - fordi der nærmest går mere regnekraft på skalering end på effekter.


Clintin
 
Superbruger
Tilføjet:
14-11-2008 20:39:57
Svar/Indlæg:
1317/46
#12, der er er noget der tyder på at udvikling af software er svære end udvikling af hardware. For flere år siden læste jeg en artikel(jeg gætter på det var fra politikken, men er ikke sikker) og den bekræfter #11.

Men det er heller ikke overraskende, for hvis du tænker på en computer som et levende væsen, så er hardwaren kroppen, mens softwaren er hjernen. Tilfældigvis er menneskehjernen den meste komplekse struktur der kendes i universet, så selv det at nå intelligens(software) på et lavere stadie er en udfordring.

Ikke desto mindre bliver det spændende at se hvad gevinsten ved GPGPU bliver, det virker som om intel er lidt skræmte, men det er også forståeligt når AMD har adgang Unified Shadere(teknologien).


NoNig
 
Elitebruger
Tilføjet:
14-11-2008 20:48:32
Svar/Indlæg:
23132/740
-> #14

Det har som sådan ikke noget med udvikling at gøre. Snarere kampen mod det, ville jeg sige. Det er enormt dyrt at lave nye platforme og teknologier. Derfor er GPGPU'er en ret god forretning. Hvis man ser på regnekraft alene, så er det software der skal klare resten.

Hvis du tænker over det, så har der jo været en minimal udvikling de senere år. ATi har stort set ikke fornyet sig siden Radeon 9700, og nVidia siden Geforce 5 (eller 6, om man vil).

Det skyldes, at der går mange kræfter og penge i, at udvikle en ny chip. Derfor er det lækkert, at man har en kraftig chip, og så skal softwaren klare resten. Igen, konsoller er et godt eksempel på "fast" hardware og dynamisk software.

Jeg har svært ved at forestille mig en PC overleve i så mange år, uden opgraderinger, som en PS2, Xbox360 eller PS3.

Gevinsten er åbenlys. Vi snakker alsidighed og bedre udnyttet regnekraft.

Spørgsmålet er blot, hvordan udnyttelsen bliver?

De næste to spændende skridt bliver fysik og ray-tracing. Med Ray-tracing vil fyisk og grafik indirekte blive langt nemmere at skrive.

Man skal ikke programmere en masse sprites, og det hele kan gøres, ja nærmest, uendeligt interaktivt.

Fysik kan med stor nemhed emuleres via ray-tracing. Det samme gælder partikler, og så begynder vi for alvor at se de 1-2 TFLOPS blive udnyttet.

De geniale?

Selv med at svagt grafikkort, vil teknologien kunne bruges. Der skal ikke diskuteres "Directx 9 vs. Directx 10 osv." - men derimod en direkte skalérbar ydelse, hvor detaljegrader er afmålt i grafikkortets ydeevne.

Ingen FPS eller 3Dmarks. Kun rå regnekraft, udmålt i hvor mange træer man kan vælte. Hvor stort vandfaldet kan blive eller hvor detaljeret tågen er.

Ray-tracing er fremtiden, og både nVidia og ATi gør sig klogt i at overveje det på nuværende tidspunkt.

Der er langt mere regnekraft i deres grafikkort, end i en Intel CPU.

De kører med langt lavere hastighed og hvis vi reelt set skal snakke ydelse pr. watt, så får Intel røveren kørt igennem savklingen 🙂


#16
Lace
 
Elitebruger
Tilføjet:
14-11-2008 20:56:54
Svar/Indlæg:
2357/72
#13 Rart at få lidt afklaring på det. Jeg har nu osse været imponeret af grafikken på PS3...især når man tænker på, at det er et 7800GTX der sidder i sådan en fætter.

Det er sq lidt irriterende, at man nærmest ikke kan følge med spil som fx. Crysis, uanset hvr mange gysser man smider eter sin pc. Dér har konsollerne sq fat i den lange ende. Gad vide om det er et tegn på "enden på hjemmebyggerens pc" og muligvis MS som vi kender det, når vi kommer et par generationer længere hen med xbox, PS3 osv.?

Som du selv før har nævnt, er det jo i principet ligegyldigt om noget kører med 60 eller 300 fps. Det samme gælder jo osse opløsning til et vist punkt.


Clintin
 
Superbruger
Tilføjet:
14-11-2008 21:00:11
Svar/Indlæg:
1317/46
#15 interessant uddybning, hvis det lykkedes at få GPU'en til at overtage alle de tunge opgaver, så må AMD da antages at have en kæmpe fordel, eftersom de både har adgang til x86 og det/de tilsvarende ting ved GPU'en(går ud fra at det netop er Stream Computing og CUDA, men ellers bliver jeg nok rettet).

Hvis du kender så meget til det, kunne du så ikke skrive en indsigtsartikel(jeg mindes Red_Martian lavede en artikelserie om grafikkort).

#0 hvis HOL ikke er en konkurrent, er der så ikke nogen herinde der kan lære dem at skrive dansk, for den artikel er godt nok et pragteksempel på volapyk.


NoNig
 
Elitebruger
Tilføjet:
14-11-2008 21:03:56
Svar/Indlæg:
23132/740
-> #16

Crysis er nok også lige tilfældet/undtagelsen, der bekræfter regelen :'-(

Crysis bærer (desværre) ekstremt meget præg af, at være mærkeligt kodet. Det er et spørgsmål om at kigge lidt på XML-filerne, så opdager man det hurtigt. Men hvis man ser bort fra 'Crysis', så kan et "middel-setup" til kr. <6.000,- sagtens afvikle de nyeste spil 🙂

-> #17

Jeg kender kun til det på "andenhånds"-niveau. Jeg har en mega-nørdet ven, der læser datalogi her i Århus (speciale, game-development), og gerne deler ud af sin enorme viden på området 🙂


#19
Lace
 
Elitebruger
Tilføjet:
14-11-2008 21:17:43
Svar/Indlæg:
2357/72
#18 Hvis du synes han er mega-nørdet er det vildt. 😀 🤣

Det kunne da være superfedt hvis du kunne få din ven til, at skrive en gæste-artikel, eller et oplæg du kunne videreregive. Jeg tror der er mange af os "dødelige" der ville finde det interessant. MEN det skal nok "dummes" en del ned og skæres ud i tagpap hvis jeg skal forstå det...hehe!


NoNig
 
Elitebruger
Tilføjet:
14-11-2008 21:19:20
Svar/Indlæg:
23132/740
-> #19

Se, det er netop dér jeg kommer ind i billedet 😀 😛


#21
Lace
 
Elitebruger
Tilføjet:
14-11-2008 21:30:25
Svar/Indlæg:
2357/72
#20 Abbehvaffornen'? Der tabte du mig lige. 😛


SIOUX
 
Elitebruger
Tilføjet:
14-11-2008 21:40:03
Svar/Indlæg:
1478/40


Interessante indlæg og spekulationer NoNig....


Clintin
 
Superbruger
Tilføjet:
14-11-2008 21:40:08
Svar/Indlæg:
1317/46
#20, løsningen er vel at du skriver artiklen så vi kan forstå den, og får teknisk assistance af din ven så artiklen bliver faktuelt korrekt.

... og resten af os... vi bliver bedre til at agere nørd overfor dem der ved endnu mindre!:)


NoNig
 
Elitebruger
Tilføjet:
15-11-2008 00:31:35
Svar/Indlæg:
23132/740
-> #21

At jeg skal "fordumme" det, så vi andre kan være med 😛

-> #22

Jotak 🙂

-> #23

Hvad vil du gerne have en artikel om? 🙂


#25
Lace
 
Elitebruger
Tilføjet:
15-11-2008 00:51:44
Svar/Indlæg:
2357/72
#24 Læg mærke til smiley'en i #21...hehe! Jeg tror det #23 og os andre gerne ville se en artikel om, netop er det du beskriver i #15.

Hvorfor kan software-programmørene ikke optimere afvikling af grafik på en pc, set ift. konsollerne når der nu er så meget mere powaah. Bliver gamere i virkeligheden tørt i r****, når de giver det samme for et gfx, som for et helt konsol? Hvor i ligger forskellen på måden de forskellige modeller fungerer på?...osv. osv.

Det er sq lige til en Phd., men det kunne være fedt at få noget af det forklaret på lægmands-sprog. Kun fordi det ville være spændende læsning og ikke andet. 🙂


NoNig
 
Elitebruger
Tilføjet:
15-11-2008 00:53:23
Svar/Indlæg:
23132/740
-> #25

Vi må se ad. Jeg har en masse projekter i støbeskeen. Helst et par ting ad gangen...


Clintin
 
Superbruger
Tilføjet:
15-11-2008 18:00:18
Svar/Indlæg:
1317/46
#25, jeg tænkte nu mere på en artikel om CUDA og Stream Computinng vs CPU, men en artikel om konsoler vs pc'ere kunne ogsåm være interessant.