SLI - kan der leveres båndbredde nok?

Diverse d.  23. november. 2004, skrevet af NoNig 20 Kommentarer.  Vist: 596 gange.



En særdeles udemærket test fra Tomshardware.com der sætter det hele lidt i relief.

Uanset hvor meget vi småttede nørder sidder og savler og grafikken i spil som 'FarCry', 'Doom 3' og 'Half-Life 2', så udnytter spillene langt fra båndbredden som kortene kan håndtere.

PCI-Express kan håndtere op til 4Gb/s - hvilket er pænt meget - , men det gør det samtidig ad to veje. "Duplex", hvilket reelt set giver dobbelt så stor en båndbredde. Nemlig på 8Gb/s.

Alm. AGP3.0 kan håndtere omkring 2,1Gb/s. Så PCI-Express er AGP overlegen hvad det angår.

Men hvad med kortene kan de udnytte det? Eller hvad med programmerne?

En del af diskussionen mht. SLI går på hvordan skal "kræfterne" fordeles, og det er her THG træder ind i rampelyset. De ser på hvor meget der reelt set er brug for og hvor meget der kan udnyttes.

Testen udføres på en ret så banal måde. De taper nemlig nogle af banerne til, så kortene gøres mere eller mindre handicappede. Lidt morsom måde at teste på, men ikke desto mindre, så giver det et fint billede af ydelsen.

Ikke overraskende, så ser man en ligefrem sammenhæng mellem antal baner og ydelse i professionelle programmer. Men selv de største og mest grafikkrævende spil i dag er faktisk tilfreds nok med blot x4 PCI (hvilket jo så lidt "afslutter" debatten om hvordan skal kræfterne fordeles. Skal det være 16:1 eller 8:8 eller...?). Dette kan ses ved, at der ikke er en nedgang i ydelse før at vi bevæger os under x4.

Link: http://graphics.tomshardware.com/graphic/20041122/index.html
red_martians
 
Moderator
Tilføjet:
23-11-2004 16:56:27
Svar/Indlæg:
7881/1165
Idag nej.... men med intruduktionen af Turbo-cache i NV44 vil der ske ting og sager :e
Turbo-cache giver direkte adgang til systemrammene, og grafikkortet kan benytte dem, som var det deres egne.
NV44 regner man med får 16MB onboard ram, resten henter den fra systemmet.
Det giver meget billige grafikkort, med fornuftig ydelse. og så vil PCI-e slottet blive godt udnyttet.
Turbo-cache vil nok også finde vej til hegh-end-produkter, men er grundet dets opbygning nok mest forbeholdt de billigste grafikkort!



NoNig
 
Elitebruger
Tilføjet:
23-11-2004 17:10:36
Svar/Indlæg:
23132/740
-> #1

Som altid, en ære! 8)

- Og ja. Programmerne kan, på nuværende tidspunkt, ikke udnytte de ufattelige mængder data der kan flyttes. Men det kommer... det kommer :D



Kim
 
Superbruger
Tilføjet:
23-11-2004 17:55:17
Svar/Indlæg:
772/50
#1 vil det ikke sux da rammene på systemet slet ikke har den samme båndbredde som de 256Bit på GFX'er(de gode hvertfald)? eller skal den kun bruge 16mb af dem ? lyder nemlig skidesmart hehe :D



fissan
 
Superbruger
Tilføjet:
23-11-2004 18:55:33
Svar/Indlæg:
28/1
system ram vil aldrig være hurtigt iforhold til onboard ram...turbo cache lyder som noget til el cheapo kort



red_martians
 
Moderator
Tilføjet:
23-11-2004 19:16:59
Svar/Indlæg:
7881/1165
4# det beskriver ejg jo også...
Men hvis spil om få år vil kræve 1GB grafikram... ville turbo-cache hjælpe gevaldigt på ydelsen i nutidens hagh-end-grafikkort ;)
båndbredden til system-rammene er jo 6.4GB med dual PC3200 (så vidt jeg husker) Det er det samme som et Radeon8500LE eller ligende... Det vil virke helt fornuftigt!! Men med nyere DDR2-ram vil der være endnu mere at hente... deres båndbredde på da ligge tæt på de 8GB/s



cornerrage
 
Elitebruger
Tilføjet:
23-11-2004 19:53:59
Svar/Indlæg:
3532/303
#5 Fatter ikke hvor du ved alt det fra.. Men det er en fryd at læse :) Lav en artikel manner :D



red_martians
 
Moderator
Tilføjet:
23-11-2004 20:23:01
Svar/Indlæg:
7881/1165
#6:
hehe ;)



Tonnilerche
 
Elitebruger
Tilføjet:
23-11-2004 21:07:29
Svar/Indlæg:
6052/189
Jeg må indrømme at det bliver sgu vildere og vildere med grafisk ydelse! :e

Jeg havde egentligt håbet på at se noget grafikkort, som fik mulighed for at udskifte selve gpu ud, med kraftigere. Og samme med rammene. De skulle bare være seperat delt, og skal have deres egne slots på bundkortet. Så kunne man købe middel-end ram til normal brug, og super-low-timings-ultra-speed-extreme-bandwidth-ram til GFX :e :p



NoNig
 
Elitebruger
Tilføjet:
23-11-2004 22:06:21
Svar/Indlæg:
23132/740
-> #8

Du er ikke den første der siger det.

Hvis man skal se på det, konstruktionsmæssigt, så er computerens grafikkort i dag faktisk en lille supercomputer i sig selv.

Jeg havde en gang hørt nogle rygter om, at man ville benytte et system med en flip-chip der kunne skiftes. Den havde ingen ben, så du kan næsten forstille dig det - set i relief til 775-soklen.

Det samme med rammene.

Men da nVidia's NV40 GPU er fuldt ud programmerbar, er det langt billigere at lave en slags chip og sælge den, i stedet for (som med CPU'erne) at lave flere forskellige.

Produktionsomkostningerne skal holdes på et minimum.



SimTex
 
Superbruger
Tilføjet:
23-11-2004 22:09:05
Svar/Indlæg:
527/21
Var det ikke noget med via kom med et SLI chipset også hvor 2nd pci-e port kun var på 4x - det er da i hvert fald godt nyt for det chipset, især hvis prisen bliver den rigtige :P



red_martians
 
Moderator
Tilføjet:
23-11-2004 22:20:23
Svar/Indlæg:
7881/1165
#10:
Jeps... hedder DualGFX express
og som du siger: muligvis et 16x og et 4x PCI-e ligesom til Intel Tumwater :D
Men toms beskriver jo at 4x stadig er rigeligt, så det burde jo ikke give nogle som helst problemer!!



Crucial-Kid
 
Superbruger
Tilføjet:
24-11-2004 01:40:13
Svar/Indlæg:
37/1
Turbo-cache og HyperMemory vil ikke rokke noget som helst hvad angår udnyttelsen af PCIe x16, eller booste ydelsen. Bag de smarte ord ligger ikke noget almindelige AGP kort ikke kan, det er rent faktisk nøjagtig det samme som på AGP kort.

Turbo-cache og HyperMemory er primært til mobil produkter, samt low end add-in kort. Der er ikke en pind at hente for et high end kort. Det er ikke features der får 6800U/X800XT-PE til at kunne køre D3 med Ultra settings uden hakken. Det handler om at kunne cutte lidt RAM af kortet eller i højere grad MXM/AXIOM-modulet uden det koster al for meget ydelse - PCI-e er i den forbindelse en dejlig opgradering i forhold til AGP, men ikke nogen vidunderpille der fjerner straffen for at benytte system RAM, den reducere kun straffen i forhold til en AGP bus.

"Men hvis spil om få år vil kræve 1GB grafikram... ville turbo-cache hjælpe gevaldigt på ydelsen i nutidens hagh-end-grafikkort 😉"
- krav på 1GB RAM så snakker vi 2007/2008 eller sådan noget. Tror du det vil gøre en forskel, når de kort du omtaler kun har en brøkdel af den fillrate og ingen af de features der kræves for at render en sådan scene?

"båndbredden til system-rammene er jo 6.4GB med dual PC3200 (så vidt jeg husker) Det er det samme som et Radeon8500LE eller ligende..."
- Tal snyder, og selvom de umiddelbart lyder lige hurtige, så er der en stor straf for at smutte ned forbi motherboardets memory controller, op til RAMene, tilbage til memory controlleren og tilbage til kortet. Internt styrer grafikkortet alt trafik, men skal den derimod ned forbi motherboardets memory controller styrer den ikke længere showet, og må se at al båndbredden ikke er dedikeret til grafikkortet. Memory controlleren på grafikkortet er i sin natur langt hurtigere end motherboardets.

Skiftet til PCI-e handler ikke om at AGP bussen hæmmer grafikkort udviklingen, i det mindste ikke på kort sigt. I første omgang handler det om at det er billigere at implementere end en AGP bus, samt langt nemmere at skalere op/ned. PCi-e x32 kunne som sådan godt implementeres i dag, hvilket ikke kan siges om AGP 16x. Begge vil selvsagt koste en del mere at implementere. På lidt længere sigt giver PCI-e nogle spændende muligheder som grafikkort bliver langt mere general purpose, og overtager nogle arbejdsopgaver fra CPU'en (næste skridt er WGF). Det kunne f.eks. være at grafikkortet skulle tage sig af udregninger i forbindelse med placeringen af 3D-lydden i et spil. Ligesom AGP ved introduktionen handlede mere om en dedikeret bus til grafikkortet og dets formål end det handlede om rå båndbredde, handler PCi-e om langt mere end rå båndbredde.



red_martians
 
Moderator
Tilføjet:
24-11-2004 10:14:26
Svar/Indlæg:
7881/1165
AGP 16x kunne sagtens impimenteres!! og nvidia arbejder bag sin PCI-e-bridge med en form for 16xAGP.
Men giver dig ret i, at PCIe's største opgave er at mindske komplexibiliten af bundkortene, og dermed gøre det billigere at lave print!
Hyper-memory og turbo-cache har en gevaldig fordel frem for AGP-texturing, som er det jeg tror du mener er AGP's svar på disse teknologier.
Rigtigt at det giver en højere latency at skulle forbi ramcontrolleren, men moderne ram på grafikkort har i forvejen meget højere latensy grundet de høje frekvenser.
Og hvad er forskellen på at en P4 skal igennem en chip og en grafikchip skal???
AGP-texturing er en del af bundkortet, og er i samspil mellem bundkortetes ramcontroller og grafikkortets.
Hypermemory og Turbo-cache giver grafikkortet 100% rådighed over rammene, ikke kun til textures som AGP-texturing, men også til cache som FSAA, og polygon-beregninger. Ergo, grafikkortet kan behandle disse ram, som var det dets egne.
AGP giver 2.1GB/s half duplex.... dvs. ca. en GB/s full duplex... et AGP-kort ville aldrig kunne presse textures igennem denne port for at udnytte de 6,4GB/s der venter på den anden side af porten. Det vil PCIe 16x tilgengæld i langt højere grad.
Ok jeg overdrev måske med de 1GB-ram....!!
Men scenariet kunne hedde 256MB med et 128MB grafikkort. Radeon9800pro får jo en gevaldig fordel i f.eks. farcry hvis det har 256MB frem for 128MB... Denne forskel kunne i høj grad fjernes ved at bruge f.eks. turbocache.
Men jeg giver dig ret i, at det er for at bygge mindre komplekse grafikkort og bundkort at man har valgt at bruge det serielle PCIe frem for det paralle AGP. At det så giver nogle fordele derudover er noget helt andet. Og grafikproducenterne har fået endnu mere frie tøjler til at udnytte resurcerne uden for grafikkortet. Og det er måske rigtigt nok at man sagtens kunne ha lavet det samme til AGP, men intet normalt spil, vil kunne arbejde med max 2GB/s i båndbredden.
Men ærligt, jeg kan ikke se forskellen om en pentium4 først skal igennem en chip med ramcontroller, for at komme til rammene, end at at grafikkort skal!! :l
Og ja... har jo også skrevet at de to teknologier i første omgang høre til low-end-sekmentet, men er meget sikker på at man også vil bruge det i high-end på et tidspunkt!
ja self kan 32x PCIe sagtens laves og det kan 64xPCIe også, men det vil være næsten lige så langt som et normalt bundkort, og vil absoslut ikke give nogen mening. Jeg tror ikke vi får et PCIe 32x at se, jo mindre de ændre på det grundlæggendes slots opbygning!
(bliver nok meget sjovt at læse om et par år det her🙂 )
Desuden ligger WGF stadig nogle år ude i fremtiden, og som tidligere, jeg tror ikke det bliver ret meget mere revolutionerende end DX9 og 8. grafiken bliver da helt sikkeret mere detaljeret, men tror ikke det handler om lyd-beregninger i GPU'en selvom jeg godt ved at det er muligt. Men lad nu lydproducenterne tage sig af lyden og grafikproducenterne tage sig af grafikken, sån har det været helt fra starten af, og det tror jeg det fortsætter med at være.
Fidussen er jo at man kan placere sit lydkort i et 1 eller 4x PCIe slot.
PCIe 16x er en ret fremtidssikret standard med høj båndbredde der vil kunne bruges i mange år fremover.
Men det kunne helt sikkert blive sjovt at læse dette når NV50 og R600 udkommer om et par år!! :e



Crucial-Kid
 
Superbruger
Tilføjet:
24-11-2004 14:46:46
Svar/Indlæg:
37/1
Synes du snakker lidt udenom.

"ja self kan 32x PCIe sagtens laves og det kan 64xPCIe også"
"AGP 16x kunne sagtens impimenteres!!"
- For det første var det slet ikke pointen, og for det andet er det direkte forkert. PCI-e x32 kan implementeres pt. pga. standarden er udformet og pga. det kan laves uden at koste en milliard - det samme kan ikke siges for PCI-e x64 og AGP 16x AFAIK.

"Desuden ligger WGF stadig nogle år ude i fremtiden, og som tidligere, jeg tror ikke det bliver ret meget mere revolutionerende end DX9 og 8. grafiken bliver da helt sikkeret mere detaljeret, men tror ikke det handler om lyd-beregninger i GPU'en selvom jeg godt ved at det er muligt."
- Læs da hvad der står, i stedet for at misforstå alle pointerne og blande tingene sammen. Det var et eksempel på at grafikkort bliver langt mere general purpose, og næste skridt i udviklingen er WGF - ikke at WGF handler om lyd-beregninger, det er jo tåbeligt.

WGF ude om 2 år, så det er mere "få år" end "nogle år" ude i fremtiden (ord knepperi men hvad fanden:). Det bliver desuden en LANGT STØRRE ændring end DX8.0 og DX9.0 har været tilsammen. Udover at den byder på samme feature spring som de to tidligere API'er og nye muligheder for udviklerne, så ændrer Microsoft på hele opbygningen i API'en. De tager reelt en del principper fra OGL. Der er en grund til at de udskifter DX navnet.
- Helt konkret kommer det f.eks. til at betyde en ændring i hvordan IHW'ernes drivere er opbygget, og skulle give langt mere stabile drivere. Det betyder også at de får mindre spillerum hvad angår driverne. WGF er på ingen måde bare nogle nye shader effekter, en (mulig) unified shader model og et par nye teknologier, de ændrer i høj grad noget af fundamentet for API'en.

Og hvad delen handler alle de henvisninger til P4 om - jeg har i hvert fald ikke skrevet noget om P4 i den her forbindelse?

Anyway der er kæmpe forskel på om grafikkortet skal lege med sin egen memory controller og onboard RAM, og at den skal ned af PCI-e bussen, over igennem memory controlleren, op til system hukommelsen og hele vejen tilbage. Det handler ikke kun om rå båndbrede, det handler om hvor mange led den skal igennem og deres latency. Grafikkortets memory har en langt lavere latency end system hukommelsen.

PS. lad os nu se om der overhovedet bliver en R600... 😉



red_martians
 
Moderator
Tilføjet:
24-11-2004 16:25:11
Svar/Indlæg:
7881/1165
Det med P4 er at den har da ligeså langt til hukommelsen som et grafikkort!! Så pentium4'eren burde have de samme ulemper som grafikkortet
WGF.... Ja!! Der kommer en shadermodel 4... og self bliver grafikken flottere, det ved vi alle. Det jeg mener er at både DX7 8 og 9 var den største grafikrevolution. og nu WGF, navnet siger det hele Windows Graphic foundation... Altså at grafik-API'ens afdeling er blevet selvstændig. Det er ikke voldsomt meget med DX at gøre. Men der vil ske spring, selfølgelig vil der det!! og DX-standarden trænger også til en ordentlig overhaling, da meget unødvendig stadigt er implementeret i den. som f.eks. T&L, hvilket jeg stadig ikke tror de dropper. :e selvom det kan klares meget hurtigere i software.
Angående det med PCI-e 32x og 64x...ja det ved jeg da godt.. og det skriver jeg da heller ikke.. skriver bare det er muligt, men usandsynligt.
og synes ikke jeg snakker udenom... prøver bare at diskutere fornuftigt, og undgår at lægge nedgørende toner bag!
Og WGF burde komme sammen med longhorn, og jeg tror at du kender microsoft ligeså godt som mig. Longhorn er sat til 2006, ligesom WinXP 64bit burde have været ude for snart et år siden. Men igen, det bliver nok meget sjovt at se hvad de producenter finder på.
Og nej grafikkortets ram har en meget høj latency, men også en meget høj frekvens. og jeg er meget sikker på den ligger højere end cas.4.0 for både DDR2 og GDDR3-ram. Men ja det er jo ikke uden grund at grafikkortet har sine egne ram, og de er jo optimeret til max ydelse. Men ville da gerne lede efter nogle data-blade for nogle ram for at underbygge teorien, for er da ikke 100% sikker. Men teoretisk kan det ikek være andet end umuligt at køre med cas. 2 eller 3 på ram emd så høje frekvenser!!
Ingen kender til fremtiden. (hehe. Jeg gør lidt for har et par kontakter) Men generelt, nix!!

noget helt andet!!
Jeg ved ikke alt, og det gør du tydeligvis heller ikke, og har du fulgt med på overclocking.dk er den tone du lægger, langt fra det vi har aftalt om generelt opførsel herinde. Da flere har brokket sig over at siden efterhånden minder alt for meget www.hol.dk ;)
Og siden her har til formål at samle glade nørder, til fornuftig afdæmpede diskutioner, hjælp og andet nørderi og ikke flamewars.
Men hvis du ikke viste det, så ved du det nu ;)



red_martians
 
Moderator
Tilføjet:
24-11-2004 16:59:21
Svar/Indlæg:
7881/1165
http://www.samsung.com/Product...
CAS 5-9 ;)
Hvilket jeg finder ret højt!! :)



Crucial-Kid
 
Superbruger
Tilføjet:
24-11-2004 18:18:23
Svar/Indlæg:
37/1
Du tager forskellige pointer + argumenter og blander dem sammen.

"Angående det med PCI-e 32x og 64x...ja det ved jeg da godt.. og det skriver jeg da heller ikke.. skriver bare det er muligt, men usandsynligt."
- Du har åbenbart stadig ikke forstået hvad jeg skrev. Jeg skrev at PCI-e x32 kunne implementeres i dag, hvilket AGP 16x ikke kan. Derefter skrev du at AGP 16x sagtens kunne implementeres. Det er direkte forkert, da der ikke er en standard der hedder AGP 16x. Der er en standard der hedder PCI-e x32, og motherboard producenterne kunne som sådan implementere den i dag fordi der er en sådan standard. Alle reglerne er på plads for PCI-e porte og grafikkort, de eksisterer ikke for AGP 16x, da en sådan standard sjovt nok heller ikke eksisterer.

Ang. WGF så skrev du følgende:
"Det jeg mener er at både DX7 8 og 9 var den største grafikrevolution. og nu WGF, navnet siger det hele Windows Graphic foundation... Altså at grafik-API'ens afdeling er blevet selvstændig. Det er ikke voldsomt meget med DX at gøre."
- Den holder jo ikke, det er den største ændring i DirectX's historie. Som sagt ændrer det hele opbygningen for hvordan HW, OS og driveren kommunikere. Selv hvis vi ser bort fra selve opbygningen, så bringer den langt større ændringer end DX9.0 gør. Den er ikke blevet mere selvstændig eller mere centreret omkring grafik end den tidligere har været. Så hvis ikke WGF har noget med DirectX at gøre, så ved jeg ikke hvad det har med at gøre.

"da meget unødvendig stadigt er implementeret i den. som f.eks. T&L, hvilket jeg stadig ikke tror de dropper. selvom det kan klares meget hurtigere i software."
- Forstår jeg det rigtigt, hvis det du siger er at de skal tage T&L ud af API'en? Du mener altså at vi skal gå tilbage til hvor CPU'en tager sig af udregningerne? Klart så kan Voodoo ejere juble over alle andre når de smækker op for Q3.

Ang. din P4 tankegang vs. grafikkortets memory controller i forhold til lantency, så er der mere til emnet end MHz og en CL værdi. A64 har en lavere lantency end P4 selvom du sætter CL til 5 f.eks. (prøv evt. at lege med cachemem hvis du har sådan to systemer). Den kan derimod ikke rykke så meget kontinuerligt data igennem som Netburst kan uanset CL værdien samt de andre og vigtigere parametre.

Og hvad er det for en tone jeg lægger for landet? Jeg retter dine misforståelser og beskriver hvad tingene handler om, i stedet for PR versionen om at NV44 kommer til at rykke røv med Turbo-cache, at PCI-e først kommer til sin ret når Turbo-cache/HyperMemory kommer på banen osv. Du råber op med udråbstegn og blander tingene sammen, for til sidst at antyder jeg har en dårlig opførsel?

Sidst men ikke mindst så skulle absolut spille HOL-kortet, når du selv godt ved det eneste sted du bliver rettet og udfordret er på HOL - behøver jeg nævne SM3.0 vs. SM2.0 og 3DC debatten, set i bakspejlet havde vi vist ret 😉



red_martians
 
Moderator
Tilføjet:
24-11-2004 19:30:17
Svar/Indlæg:
7881/1165
:)
Tjaaa....
Jeg mener stadig ikke at du har ret på alle områder.
Men det er jo et emne med mange meninger, forestillinger og holdninger.
Og har aldrig sagt at Turbo-cache vil rykke røv, bare at jeg finder det spændende, og giver en fremtid med endnu billigere grafikkort, især til low-end-sekmentet.
Du er svær at diskutere med, når du står så fast på dine holdninger, og det er ikke sjovt at blive rettet på den måde.
Diskutioner er fede, især inde for et så kompliceret emne som grafikkort, og grundet dets kompleksitet skal man passe på med at mene man har ret!! Bl.a. er det svært at stå inde for, at WGF 1.0 er den største revolution inden for DX-standarder, når standarden kun lige er lagt fast, og praktisk taget ingen andre end ATi's og nVidia's dybbeste kældre ved hvordan grafikken kommer til at se ud om 2-3år, selvom teknikken ser fed ud, er det jo ikke ensbetydende med at grafikken gør.
Men ja, du er nok den der kan give mig mest modspil, sammen med rune fra hardwaretidende, og det er da fedt nok!!
Men selv inde i den her branche, er der sjældent andre facts end bench's
Og ja.... den debat med SM 3.0 vs 3dc..... hehe... jeg mener nu stadig jeg har ret!! Men det handler jo stadig om to forskellige ting. :e
Og det ville også være syndt at ligge tal og graffer for de forskellige grafikkorts teknik.
Hehe... og jeg bruger kun udråbstegn i en god mening.... Tilgengæld bryder jeg mig ikke om store bogstaver, men det understreger vel vores forskellighed.
Og ja... voodoo5's VSA100-chip var vist DX6 :r
Og jeg har været voodoo-ejer i over 5år :r
Men pyt.... jeg er ikke PR-gal.
Sådan... nu har jeg vist fjernet alle udråbstegnene (jeg gør det helt automatisk)
Men jeg trækker ikke land :e
Men siger heller ikke, at du ikke har ret.

hehe...nåja den med T&L.... ja, det kan ordnes i software... 🙂 De transistore kan bruges på noget mere fornuftigt. Så ja... Alt nyere end Geforce2 behøver ikke T&L...jo mindre det skal bruges i en maskine under 1Ghz. (igen. det er en påstand og en holdning, ikke en provokation)
mvh Jan Tams



Crucial-Kid
 
Superbruger
Tilføjet:
25-11-2004 00:53:54
Svar/Indlæg:
37/1
<i>"Men ja, du er nok den der kan give mig mest modspil, sammen med rune fra hardwaretidende"</i>
- Synes nu meget godt deres Shader model 3.0 artikel viste hvor lidt de reelt ved om hvad de skriver. 3-4 måneder efter de skrev den, lavede de en der sagde nøjagtig det modsatte og samtidig skrev at den bekræftede deres tidligere artikel. Desværre byggede den på ekstremt mange misforståelser omkring SM.0 g 3Dc som er vidt udbredte (samt argumenterede for hvorfor 3Dc og SM3.0 var så super fedt udfra nogle billeder som viste noget andet end det de troede). De skal dog have credit for at have lavet en lovlig artikel, det er da altid noget. Hvis man ikke aner hvad jeg fabler om så læs mere her:
http://www.overclocking.dk/for...
http://www.overclocking.dk/for...

<i>"Og har aldrig sagt at Turbo-cache vil rykke røv"</i>
- Helt sikkert, men det bakkes bare ikke op af den måde du skriver om det på, når spørgsmålet lyder om SLI kan levere nok båndbrede:
<i>"Idag nej.... men med intruduktionen af Turbo-cache i NV44 vil der ske ting og sager</i>
- Der vil netop ikke ske ting og sager, andet end Dell kan spare lidt penge på nogle mobile produkter og entry level add-in kort. Det er fint at du mener noget andet end det citat giver udtryk for, men tænk på vedkommende der ikke kan sætte det i perspektiv, han vil tro det bliver super fedt og PCi-e for alvor kommer til sin ret. Du har jo trods alt noget autoritet herinde, og de første indlæg bærer da også præg af at det blev taget lidt for bogstaveligt. Spørg dem om de ikke fik den opfattelse, at Turbo-cache og PCI-e kommer til at rykke røv?

<i>"Og ja.... den debat med SM 3.0 vs 3dc..... hehe... jeg mener nu stadig jeg har ret!!"</i>
Hvis du stadig mener det, så prøv lige at huske tilbage på hvad det drejede sig om. Har Farcry vist sig at 3Dc give en langt bedre billedkvalitet eller ydelsesboost, har SM3.0 vist sig at gøre grafikken langt bedre eller hurtigere? (elsker ledende spørgsmål)

For en lille opdatering af hukommelsen:
http://www.hardwareonline.dk/n... (fra indlæg 12 til 35 - hvor Lestat og jeg argumentere for hvad SM3.0/3Dc er for størrelser, og du mente noget andet)

<i>"De transistore kan bruges på noget mere fornuftigt. Så ja... Alt nyere end Geforce2 behøver ikke T&L...jo mindre det skal bruges i en maskine under 1Ghz."</i>
- Nu er det jo ikke fordi nVidia og ATI brænder transistorer af på en T&L enhed, og det har egentlig heller intet med DX at gøre. Du snakkede om at DirectX standarden trængte til en opdatering, og i den forbindelse at T&L er unødvendigt i API'en. Det kunne jeg ikke helt følge, og lød som noget sludder.

PS. jeg måtte lige slå det op for at være 100 på V5 og DX6.0 😉

PPS. Undskyld det langsomme svar, men jeg har lige været til træning (kom hjem for en time til 1½ siden)


Vejby
 
Elitebruger
Tilføjet:
03-12-2004 09:33:41
Svar/Indlæg:
205/22
wooot long text war :P

Slå jer sammen... lav en artikkel så vi andre kan blive lige så kloge :D