ATi R600 rygter

Diverse d.  16. november. 2006, skrevet af red_martians 29 Kommentarer.  Vist: 490 gange.



ATi kommende udspil til directX10 med unified shader er noget anderledes end nVidia's nyeste Geforce8800-grafikkort.

Geforce8800GTX har 24 ROPS, og ATi R600 16stk.
Geforce8800GTX har 128Unified shaders, ATi R600 64stk.

Men hvordan kan det så være hurtigere, jo først og fremmeste bliver det clocket en del højere, for det andet er deres unified shader opbygget helt anderledes end Geforce8800GTX.

Bliver shaderberegningerne tunge (flottere effekter) vil R600 kunne beregne op til 256shaderberegninger per gang. Præcis samme system som Xbox360 benytter sig af. Dens unified shader er kun på 16, men ved tunge beregninger opfører den sig som en processor med 48 unified shades.

Det vil reelt kunne betyde en del spild-krafter for R600, men får den noget at leve af, vil den kunne slå Geforce8800GTX uden problemer.

R600 vil desuden få 512bit ramkredse muligvis ved omkring 1Ghz (DDR2000) og derved vil kun GDDR4 være en mulighed. Køleren skulle blive længere end selve grafikkortet, og være opbygget i kobber, hvor at Geforce8800GTX kun bruger aluminium. R600 skulle blive ganske alvorligt varmt og sluge over 200watt og køleren skulle være i stand til at tage imod 250watt, her ligger Geforce8800GTX specificeret til max 185w.

Kortet får derudover en Ringbus ligesom RadeonX1xxx-serien men denne gang på hele 1024 bit (1Kb)

Til sidst skulle VIVO blive standard, med en ny Digital rage theater chip. Det ser ganske spændende, og rart at se at produkterne ikke er ens bygget op, det ville have gjort verdenen alt for kedelig.

Men husk det hele er rygter, men disse rygter virker ikke overdrevne og der er god grund til at tro at kortet vil ende med at se sådan ud.

(part1) http://www.theinq.com/default.aspx?article=35707
(part2) http://www.theinq.com/default.aspx?article=35708
-Timberwolf-
 
Superbruger
Tilføjet:
16-11-2006 09:34:19
Svar/Indlæg:
421/13
Så længe man ik selv betaler strømregningen?? ?:( :00
Bliver sikkert også dyrere end de plejer de high-end gfx.

Red Martians:
Du har været lige hurtig nok på aftrækkeren med den nyhed der hva? =)

Link er ikke i orden, og så lige det der med ringbussen... Det er ikke 1Mbit, men 1kbit! ;)


Martin.v.R
 
Elitebruger
Tilføjet:
16-11-2006 11:35:25
Svar/Indlæg:
8555/439
ja dine link virker ikke ;) men elles lyder det godt


biatch
 
Superbruger
Tilføjet:
16-11-2006 13:00:48
Svar/Indlæg:
23/0
Jeg synes det er fuldstændig hovedløst bare at smide extra mhz på dyret i stedet for lige at vende den i mødelokalet en gang mere.

der er jo ligefør der står mclaren-mercedes henover hele kortet. bare flere hyppere i skidtet, så det blir' satans hurtigt. Så må vi bare leve med at det står af i svinget af og til :O

ikke nok med at den bruger mere strøm, men hvorfor er det blevet trendy at lave grafikkort i bundkortstørrelser?


Emillos
 
Overclocker
Tilføjet:
16-11-2006 13:04:40
Svar/Indlæg:
14079/622
"ikke nok med at den bruger mere strøm, men hvorfor er det blevet trendy at lave grafikkort i bundkortstørrelser?"

Tvivler på at det er direkte "trendy" - nok nærmere en nødvendighed på designsiden :l

Jeg tror at nVidia beholder tronen i noget tid endnu, og at ATi's DX10 serie bliver noget af en fuser. Men man ved jo aldrig - pt ved vi alt for lidt til at kunne sige noget om det.
Håber sgu at ATi tager sig sammen, og får bikset et godt grafikkort sammen :)


foo
 
Elitebruger
Tilføjet:
16-11-2006 13:26:29
Svar/Indlæg:
1685/240
#3 - Det er ikke trenden, det er bare nødvendigt... Udviklingen har på en måde overhalet (som jeg ser det) hvad der er teknisk muligt - eller ihvertfald muligt med de midler som ATi/nVidia har i kraft af de ikke har deres egne fabrikker... GPU'en er ligeledes den mest avancerede chip (mener jeg at have hørt) i hele ens maskine, og skal der ske en udvikling på det område, med de midler de har til rådighed, så rammer man de lidt mere ekstreme områder af spektret... Bare sådan jeg ser det...

#4 - det gør de da selvfølgelig... dethedder R600 hvis du skulle være i tvivl ;)

MvH



-Timberwolf-
 
Superbruger
Tilføjet:
16-11-2006 14:16:10
Svar/Indlæg:
421/13
Ja og det er sikkert også kun folk med triple cascader der har råd til kortet ;)

"The PCB will be shorter than 8800GTX's in every variant"

"The thermal budget is around 200-220 Watts and the board should not consume more power than a Geforce 8800GTX."

Men varmt er det...


red_martians
 
Moderator
Tilføjet:
16-11-2006 14:21:38
Svar/Indlæg:
7881/1165
Link og test rettet.. Jeg lavede den oppe på seminariet, var sgu mødt op uden grund, så havde lige 30min til at liste et par nyheder op, inden ejg kunne komme hjemad med toget :)


red_martians
 
Moderator
Tilføjet:
16-11-2006 14:35:48
Svar/Indlæg:
7881/1165
#3: der er generelt to løsninger til at lave er hurtigere grafikkort.... Flere transistorer eller højere frekvens. Begge dele giver ekstra varme, så i virkeligheden handler det om effektivitet og strømbesparende teknologier som overdrive eller coolFX. :)


DTU_XaVier
 
Elitebruger
Tilføjet:
16-11-2006 14:39:33
Svar/Indlæg:
2786/120
Hvorfor får de det ikke bare til at opføre sig som 256 shaders hele tiden istedet for det der?? :00
512-bit controller med 1gb DDR4 RAM... Når ATi får det her på gaden, smider NVIDIA jo bare 8800GTX 1k på gaden, med samme antal ram og bits... Og sikkert højere core-clocks og kobberkøler, bare for at pisse ATi af :p :e

MVH.
Toke :)


red_martians
 
Moderator
Tilføjet:
16-11-2006 15:10:34
Svar/Indlæg:
7881/1165
#9: meget simpelt... nVidia's parallelle løsning er garanteret noget der koster transistorer, og ved at ATi laver løsningen seriel kan de få mere ydelse ved tunge effekter, men mindre ydelse ved de sølle effekter. ATi går efter at kunne lave den flotteste grafik uden ydelsestap. nVidia satser over hele linien og vil gerne have et grafikkort der yder fornuftige ligemeget om man giver det et gammel farcry-spil, eller det kommende Unreal3 ;) :)


DTU_XaVier
 
Elitebruger
Tilføjet:
16-11-2006 15:29:56
Svar/Indlæg:
2786/120
#10 Og dog lykkes det ATi at have det største strømforbrug, ud fra de tal der står nu... :00
Den giver sikkert mening i idle, men de burde da, med færre transistorer kunne skrue ned for strømforbruget ved stress... :)

MVH.
Toke :)


biatch
 
Superbruger
Tilføjet:
16-11-2006 15:30:58
Svar/Indlæg:
23/0
#10 vil da også synes at det er det sidste jeg er interesseret i.

for dem der har set top gear, så minder det mig om med evo'en og punto'en, hah :D


M.Thomsen
 
Elitebruger
Tilføjet:
16-11-2006 15:34:34
Svar/Indlæg:
4112/53
#10 der er da også mere ved at have en god performance ved MAX settings, end ved at have et monster kort der er godt til 1280*1024, men knap nok kan klare 1920*1440.

En ting er i hvert faldet sikkert. Nu har man ikke nok i at kører med et 1600*1200 skærm længere, slet ikke hvis man har de her monstre til grafikkort.


DTU_XaVier
 
Elitebruger
Tilføjet:
16-11-2006 15:38:38
Svar/Indlæg:
2786/120
#13 Nej, ikke med nuværende spil... Men senere bliver grafikken jo bedre og bedre, og så skal man derned af igen ;)

MVH.
Toke :)


M.Thomsen
 
Elitebruger
Tilføjet:
16-11-2006 15:40:07
Svar/Indlæg:
4112/53
#11 Du kan sammenligne det her ræs md GFX lidt med forbrændingsmotorer.
På en almindelig gade bil, der skal motoren sjældent længere op end 6-7krpm, mens en formel1 bil's motor render i omegnen af 14krpm. Dennefordobling i omdrejninger, giver formel 1 bilen med en 4 cylindret 1.6l motor samme hestekræfter, som en 3.2l V8 amerikaner bilmotor.
OK, amerikaneren har bundtrækket (G80 er god "general performance"), mens formel1 motoren seriøst sparker fra sig, når først den er kommet op i omdrejninger (R600).


M.Thomsen
 
Elitebruger
Tilføjet:
16-11-2006 15:42:03
Svar/Indlæg:
4112/53
#14 Tror jeg nu ikke bliver et problem, for spillenes krav til GFX er steget noget langsommere, end performance på GPU'erne er igennem de sidste par år.
Dertil skal du så huske på SLI/CF, der gør at der er endnu mere performance disponibel, så tvivler på, at 1600*1200 er nok ret lang tid endnu.


biatch
 
Superbruger
Tilføjet:
16-11-2006 15:42:04
Svar/Indlæg:
23/0
#15 en mindre rettelse; formel1-motorer ligger på 18-19k rpm 8)

de skriger så også som en pige i soveværelset!


M.Thomsen
 
Elitebruger
Tilføjet:
16-11-2006 15:45:30
Svar/Indlæg:
4112/53
#17 Er det ikek motorcykel motorene du tænker på?
Ka godt være jeg husker forkert.


red_martians
 
Moderator
Tilføjet:
16-11-2006 15:53:54
Svar/Indlæg:
7881/1165
#17: :e præcis præcis


red_martians
 
Moderator
Tilføjet:
16-11-2006 16:00:27
Svar/Indlæg:
7881/1165
#11: mente det nu heller ikke på den måde. Men ved at gøre det anderledes kan de få mere ydelse ved samme antal transistorer.
Det kunne man også kalde at "spare" på transistorer, ATi har bare valgt at udnytte dem på en anden måde.
Men har faktisk gjort det sådan rigtig længe. F.eks. da man opdelte ROPs fra pipelines og senere shaders. Ved at fjerne 8ROPS kunne man f.eks. få 32shader-enheder for samme antal transistorer. :)
Håber det var mere forståeligt nu.


Mathis77
 
Elitebruger
Tilføjet:
16-11-2006 16:44:36
Svar/Indlæg:
6293/359
1-20# Jeg mener helt klart at begge fabrikanter er inde på en helt forkert vej... Jeg gider i hvertfald ikk ha et grafikkort der er på størrelse med et tastatur :D .... i "gamle" dage (94-96) da jeg gik i gym., gik jeg også meget op i hardware-udvikling osv. og der undrede det mig, at et af de nye vilde 64bit kort var halvt så store som 32bit... hvorfor i hulen kan de ikk gå den vej igen?

Jeg ser det også som om udviklingen faktisk er stagneret i forhold til cpu-markedet, der igen er i vldt opsving. Det med at ha en rimelig singlecore-cpu og så 2x monstergrafikkort, det holder ikk en meter mere... køb i stedet en E6600 og smid et 6600gt eller 7600gt på eller hvad du nu har.
På den anden side har jeg da også set frem til R600 og G80, men er noget skuffet over størrelsen, læs: at udviklingen er afsporet for at tjene nemme penge...
Jo mindre - jo hurtigere...

SHOOT ME! 8)


Mathis77
 
Elitebruger
Tilføjet:
16-11-2006 16:47:56
Svar/Indlæg:
6293/359
PS. F1 omdrejninger er i dag 2006 sæson for ferraris vedkommende omkring 22.000rpm...

14k rpm var i 90erne :e


red_martians
 
Moderator
Tilføjet:
16-11-2006 17:20:12
Svar/Indlæg:
7881/1165
#21: giver dig ret på mange måder... Men CPU-branchen er desværre ikke meget bedre. Den dyreste CPU Intel Core2 Quad er helt sikkert en af de mest strømslugende monstre nogensinde.. Måske er der et par af de største PentiumD der er værre, men omkring 130watt for en CPU er langt mere end den kritiserede 75watt en AMD Thunderbird, eller den 35watt AMD Duron Spitfire. osv osv. Udviklingen går stadig den forkerte vej med CPU'er og den Største Athlon64 sluger mere strøm end den største AthlonXP'er. Det er ganske vist.

Det der er i dag, er at man selv kan vælge... Et middel-grafikkort bruger ikke mere strøm end et high-end for 4-5år siden.. Så her er det ikke gået helt galt :)


orchid5
 
Superbruger
Tilføjet:
17-11-2006 01:08:34
Svar/Indlæg:
73/8
#23
Jeg vil lige gøre opmærksom på at en Athlon64 2GHz dualcore cpu (i EE version) bruger under 65W ved fuld load. Det vil jeg da nok kalde en forbedring i forhold til eksempelvis en single core Athlon XP 1,6GHz som vel brugte minimum den samme effekt. Men du har ret i at det virker som om hardware producenterne accepterer højere og højere effektforbrug.
Derudover er der jo også de forskellige teknikker til at ændre clockfrekensen/spændingen nu så cpu'erne/GPU'erne bruger endnu mindre i idle - men det er nok ikke en hel fair sammenligning.


M.Thomsen
 
Elitebruger
Tilføjet:
17-11-2006 03:15:41
Svar/Indlæg:
4112/53
#24 Hvis du ser på antallet af transistorer og performance, så er der godt nok noget af en forskel på en A64-X2 og en A-XP (Barton).

#23 840XE havde en TDP på 134W. :e Men det er også den desktop CPU med det højeste TDP der har været lavet so far.
At en QX6700 så kan have 4 kerner til/ved 130W, det giver lidt af et indtryk af fordelen ved skiftet fra 90nm til 65nm, og forhåbentligt hvad skiftet fra 65 til 45 vil komme til at gøre.
GPU producenterne må sq da bare igang med samme skrumpning, og komme fra 110 ned på 90nm eller 65nm, så dropper strømforbruget lige 30-50% ned, ved samme performance/antal transistorer.

#22 OK, men det er pga de fik at vide de skulle fjerne en cylinder mere til denne (elelr er det først næste?) sæson.


#26
PBM
 
Superbruger
Tilføjet:
17-11-2006 10:13:27
Svar/Indlæg:
309/23
Umiddelbart synes jeg det ser ud til at R600 burde blive dyrere at producere end G80!? Nogen der kan af- eller bekræfte det?

Jeg synes - som #21 - også at det er en gal retning ATI og nVidia går med størrelse og strømforbrug. Det nytter ikke noget at skære 60W af sin processors strømforbrug når GFX stiger med en millard W :x


Lars_hjort
 
Elitebruger
Tilføjet:
17-11-2006 10:43:09
Svar/Indlæg:
1900/33
#24 Nu skriver han og så den største A64 hvilket en 2 ghz X2 EE ikke ligefrem er! Hvis man tager en FX-60/62

/Lars


Ascanius
 
Elitebruger
Tilføjet:
17-11-2006 10:45:43
Svar/Indlæg:
725/128
Ja, det er lidt en latterlig krig der efterhånden bare går ud på at producerer det største og mest overclockede stykke hardware.

Ligesom med dustbuster, mellem 120-140 grader osv. fuldstændigt forrykt.

Men så længe det giver et par fps mere.
Ligesom alt det med flere fysiske kerner, også bare fordi man ikke kan lave en kerne med det hele i, også en halv løsning der bruger kanon meget strøm og heller ikke vil være så effektiv som hvis det hele var samlet i en core, som intels quad core f.eks. elelr NVidias GX2 gfx osv. kan være nvidia snart kommer med deres helt eget woodoo 6000 kort igen med 4 kerner på, det bliver de nok nød til efter R600 jo hehe


Lars_hjort
 
Elitebruger
Tilføjet:
17-11-2006 11:28:41
Svar/Indlæg:
1900/33
#28 Nu er Intel Kentsfield også 2 fysiske kerner, ligesom Intel D serien var det!

/Lars