Nvidia = fail

Grafikkort d.  15. marts. 2010, skrevet af M.Beier-old
Vist: 1334 gange.

M.Beier-old
 
Superbruger
Tilføjet:
15-03-2010 14:22:39
Svar/Indlæg:
1189/118
Længe har nvidia keglet rundt... For mange kom prikken over i'et fornyligt med deres "big announcement", som så viste sig at være annoncering af hvornår de vil annoncere noget....

Fermi GTX480 er og bliver et PR nederlag indtil videre, selv de fleste indædte nvidia tilhængere erkender dette....

Men nu hvor nvidia har bukserne godt på, så er det jo oplagt; Lad os bekrige Intel....
http://www.nvidia.com/object/n...

På siden skriver Nvidia, tillad mig at sige; FIKTIVT.....
Bl.a. fandtes der ifølge nvidia ikke nogen GPU (grafik processor enhed) før 1999, så drenge og piger, vi kunne altså IKKE spille half life før året efter det udkom...... 😳
MADZ
 
Elitebruger
Tilføjet:
15-03-2010 14:53:23
Svar/Indlæg:
2602/173
Jeg spillede det med 3DFX Voodoo 3 :yes:


las
 
Elitebruger
Tilføjet:
15-03-2010 15:18:42
Svar/Indlæg:
2151/51
Mener bestemt jeg havde RivaTNT 16mb 😎

Ifølge Gamespot.com udkom HL 31 Okt. 1998 og RivaTNT kom sommer 1998, så det kan jo godt passe :yes:


Svaret blev redigeret 2 gange, sidst af las d. 15-03-2010 15:22:10.


NoNig
 
Elitebruger
Tilføjet:
15-03-2010 16:12:46
Svar/Indlæg:
23132/740
Det var, så vidt jeg husker, nVidia der lancerede udtrykket "GPU" (som ATi senere kaldte "VPU"?).

En enkeltløsningschip, med både 2D og 3D acceleration. Så kan man jo skændes, frem og tilbage, om hvem der kom først med hvad...


M.Beier-old
 
Superbruger
Tilføjet:
15-03-2010 16:15:08
Svar/Indlæg:
1189/118
http://www.intelsinsides.com/
LOL, nvidia graver deres egen grav 🤣


Gripen90
 
Senior Skribent
Tilføjet:
15-03-2010 16:23:50
Svar/Indlæg:
15982/637
#3: Korrekt. Termen GPU kom først med GeForce 256, så de tager ikke helt fejl #0.
Read and learn.

GPUs, or graphics processing units, are specialized processors first developed by NVIDIA in 1999. They were initially used to render three-dimensional graphics. In more recent years, GPUs have also been used for "general purpose" computing, which harnesses the computing power of the chip to perform certain functions traditionally handled by the CPU, often more efficiently than can be done by the CPU alone

Synes nu overskriften er noget overdrevent.

Mht Fermi - så sku der være en prisreduktion på vej.
People have expected single GPU Geforce GTX 480 to end up at close to $600 or _600 in Europe after tax but it turns out that the amount Nvidia wants for its new high end card should be closer to _450.



Svaret blev redigeret 3 gange, sidst af Gripen90 d. 15-03-2010 16:30:58.


M.Beier-old
 
Superbruger
Tilføjet:
15-03-2010 16:36:30
Svar/Indlæg:
1189/118
#5
Jeg har læst...

Graphic processor unit..... Hvordan man end vender og drejer den, er det en dedikeret processor til 3D..... Dette fantes længe før GeForce 256.... At nvidia er første som har lavet PR herom, det er en anden snak....
- Nvidia kan kun tage æren i deres eget PR stunt....

... Men hey, man kan vel også lære om nazismens rolle i WW ved at spørge Johny Hansen???? Hence; KILDEKRITIK....


Gripen90
 
Senior Skribent
Tilføjet:
15-03-2010 16:57:03
Svar/Indlæg:
15982/637
#6: Som historiker ved jeg sgu godt hvad kildekritik er og jeg arbejder efter det funktionelle kildebegreb, men hvordan du end vender og drejer det så blev termen GPU ikke brugt FØR, at nVidia introducerede det med GeForce 256 !
Kilde ? = Afsnittet øverst, tredje linie.

(må betegnes primær kilde til introducering af begrebet ud fra antagelsen at objektet er et levn fra en given periode).

Hvad det så er kaldt før er jo hamrende ligegyldigt, da det jo ikke er det er omdrejningspunktet. Før man omtalte chippen som GPU blev den kaldt 3D accelerator, 3D rendering unit, Graphics Processor etc. - ja og selv om det er samme enhed, så blev den ikke kaldt GPU for nVidia kaldte deres egen NV10 for GPU.
Her er bagsiden for et Riva TNT2.

Lidt fra ATI


At du så vil kalde GPU for et PR stunt det er så din vurdering, men hvis den er et PR stunt, hvorfor bider folk sig så fast i at bruge den. Principielt kunne ATi's VPU (Charisma engine) jo lige så godt anvendes.

Hvis du vil vide noget om Nazismes rolle og konsekvenser for mennesker anbefaler jeg værker fra Sofsky, Eugen Kogon, Therkel Stræde som indledende læsning.


Svaret blev redigeret 4 gange, sidst af Gripen90 d. 15-03-2010 17:15:15.


M.Beier-old
 
Superbruger
Tilføjet:
15-03-2010 17:12:11
Svar/Indlæg:
1189/118
Hvor vil du hen??

Det var en GPU før, om de så brugte andet navn....
Prøv lige at læs hele linien inden du drager konklusioner....

Der står verdens første GPU med DDR ram.....
Dette er korrekt... Nvidia var første selskab som bragte DDR ram på deres grafikkort...

Første grafikkort var med EDO, senere med SD.... Nvidia var første med DDR..... Det var eneste innovative..

nvidia PR's term for GPU er beskrevet her;
"a single-chip processor with integrated transform, lighting, triangle setup/clipping, and rendering engines that is capable of processing a minimum of 10 million polygons per second."

Reelt set kan ATI ligeså godt gå ud og påpege; GPU, er en indikation af en grafik enhed som er 20% hurtigere end NVIDIA... Det er ligeså meget varm luft....

Men; Tror jeg lader det ligge.... Gider ikke argumentere hvis du ikke engang kan forholde dig til hvad tråden omhandler men kun taler uden om.


Johnny
 
Superbruger
Tilføjet:
15-03-2010 17:21:59
Svar/Indlæg:
2127/11
Hmm.. Ingen tvivl om at Nvidia tillægger sig en yderst selektiv vinkel på gpu begrebet. De får det til at se ud som om de opfandt grafikprocessoren, når det de i virkeligheden taler om, er opfindelsen af en siden meget brugt betegnelse. Der er noget af en forskel, og ja.. Det er imo at vildlede de uvidende.

Hvor ynkeligt det så end er, adskiller det sig vel ikke synderligt fra hvordan de fleste firmaer forsøger at få sig selv til at ligne guds gave til menneskeheden. Dermed er det ej heller det arrigste kritikpunkt jeg til dato har hørt.

Skulle man kritisere Nvidia, kunne det være for:

- Et navnerod som man ikke har set magen til tidligere, formentlig afledt af deres manglende evne til at hænge på. Det fortsætter nu med GTX300 serien, som stort set er rebrandede (igen igen) 200 chips, med DDR5 ram. Jeg forstår ikke at de kan få sig selv til at blive ved.

- Den måde de behandlede en hulens masse producenter på, mens de forsøgte at dække over deres gennemdefekte 8600m chip. At de ikke mistede mange forretningsforbindelser på den konto, må skyldes dels manglende reel konkurrence at the time, dels formentlig noget bestikkelse.

- at have solgt FX5xxx serien som DX9 kompatibel når det i virkeligheden var nogle skodchips der havde brug for støttepædagog for at overleve

- pt for at være kørt fuldstændig bag af dansen på DX11 fronten.

Sidstnævnte er dog imo mindre væsentligt. Shit happens, og ATI har sgu også hængt med røven i vandskorpen tidligere. Man skal ikke tænke længere tilbage end 8800 vs 2900, hvis man ønsker et eksempel på det.

Jeg synes også betegnelsen fail er liige i overkanten her 🙂


Gripen90
 
Senior Skribent
Tilføjet:
15-03-2010 17:28:01
Svar/Indlæg:
15982/637
#8: Årh nu må du lige styre dig ! tale uden om ?!

Jeg har skam læst før jeg drog konklusioner.
Jeg gik ud fra din antagelse at:

På siden skriver Nvidia, tillad mig at sige; FIKTIVT.....
Bl.a. fandtes der ifølge nvidia ikke nogen GPU (grafik processor enhed) før 1999, så drenge og piger, vi kunne altså IKKE spille half life før året efter det udkom......


Min forståelsesramme hvor ovennævnte.

Observation.
1) Fiktivt at der ikke var nogen GPU før 1999.)
2) Det var ikke muligt at spille noget før 1999).

Afklaring og tolkning.
1) GPU som term og begreb fandtes ikke før 1999.
2) nVidia introducerede Graphics Processing Unit som GPU i 1999.
3) Korrektion, det var muligt at afvikle spil FØR 1999.
4) Grund hertil at før termen GPU blev introduceret blev andre begreber anvendt for samme enhed.
5) Tidligere begreber 3D rendering unit, Graphics Processor, 3D accelerator, Graphics accelerator.

Konklusion.
1) Det var muligt at afvikle spil før 1999. Enheden gik bare under andre begreber.
2) Det er korrekt at termen GPU blev stadfæstet og introduceret af nVidia i 1999.

Perspektivering.
Begrebet har i dag slået sig fast som et generelt begreb for den chip enhed der står for at afvikle grafiske processor.

Hvis du faktisk læste hvad jeg skrev - så er det jo i realiteten en bekræftelse på din egen antagelse !
Det jeg behandler er selve introduceringen af termen GPU !

Jeg kan sagtens forholde mig til hvad tråden handler om... kan du ?

#9: Ganske enig ! Man kan være meget skeptisk over den betydning og fortolkningsværdi de tillæger deres GPU betegnelse. Men termen som isoleret begreb da kan man ikke anfægte deres antagelse og ret hertil.


Svaret blev redigeret 2 gange, sidst af Gripen90 d. 15-03-2010 17:31:33.


M.Beier-old
 
Superbruger
Tilføjet:
15-03-2010 17:35:31
Svar/Indlæg:
1189/118
#10
Du har virkelig ikke klikket på de links, har du?

Tråden handler om nvidia prøver at manipulere med faktuelle data....
Der er MASSERE hold i det.... Du har bidt dig fast i GPU termen, som er en PR hype, da nvidia prøver at tage patent på den over at de engang satte en std efter deres nyeste produkt, og alt andet ikke var sejt nok.....

EKSEMPEL:
Der står en CPU udelukkende bruges til at arbejde med ting som iforvejen er lagret på ens hukommelse...

Der står; Chipset intet har med ram håndtering af gøre....

Der står mange spændende ting.... Prøv at læse linket, så kan det være du kan følge hvorfor det er fail


Svaret blev redigeret 3 gange, sidst af M.Beier-old d. 15-03-2010 17:38:43.


NoNig
 
Elitebruger
Tilføjet:
15-03-2010 17:44:52
Svar/Indlæg:
23132/740
-> Gripen90

Jeg er med dig på den her. Den største og mest markante forskel var nemlig den, at "GPU'en" (som nVidia kaldte deres chip) aflastede CPU'en til grafikafvikling.

... det var nVidia de første som kunne tilbyde. 3D acceleration, indtil da, var forbeholdt add-on kort, alá Voodoo II. End of story.

De fleste kan vel sagtens huske, hvordan grafik så ud i "software", før vi fik Glide og Direct3D.


Gripen90
 
Senior Skribent
Tilføjet:
15-03-2010 17:45:44
Svar/Indlæg:
15982/637
#11: Jo det har jeg. Men du læser jo ikke hvad jeg prøver at fortælle dig, så det kan vel være lige meget efterhånden.
nVidia kan jo ikke manipulere med det faktuelle fakta, at det var dem der kom op med termen GPU ? - så skulle de sige, at det ikke var dem !. Jeg forholder mig kun og KUN til begrebet.


Johnny
 
Superbruger
Tilføjet:
15-03-2010 17:48:46
Svar/Indlæg:
2127/11
#11 Hvis du skulle stå dig godt i diskussionen, skulle du have citeret, henvist eller linket til nogle af de ting du nu smider på banen, så folk fra start kunne forholde sig til dem. Jeg gider da ikke rode rundt i dit link, for at finde ud af hvad du mon fandt vigtigt. Hvordan sikrer man sig på den måde, at alle taler om nøjagtigt det samme?

En fair diskussion kører på at en eller begge parter fremsætter nogle (konkrete) postulater, som deltagerne i diskussionen så kan forholde sig til.

Jeg er ikke ude med riven efter dig. Prøver bare at fortælle dig, at du ikke kan lægge ud med et postulat, for der efter at bebrejde folk at de ikke har forholdt sig til et andet og tredie. Det' noget rod 🙂


-edit-

#12 Hovsa.. Hvis det er sandt (jeg var nul interesseret i hw dengng, og anede ikke hvilket grafikkort der slæbte mit rallyspil, og hvordan det gjorde det), så har Nvidia jo noget at ha' historien i.


Svaret blev redigeret 1 gang, sidst af Johnny d. 15-03-2010 17:51:00.


NoNig
 
Elitebruger
Tilføjet:
15-03-2010 18:01:10
Svar/Indlæg:
23132/740
-> #14

Helt klart. Det som gjorde Geforce 256 og Geforce 256 DDR så interessant, var netop muligheden for at afvikle rigtig flot grafik, uden samtidig at have en vild CPU.


Johnny
 
Superbruger
Tilføjet:
15-03-2010 18:05:57
Svar/Indlæg:
2127/11
Jamen så bøjer jeg mig Allan. Det er sgu en udvikling de fortjener æren for.

..og nu arbejder de alle sammen på at integrere cpu og gpu.. Er det så frem- eller tilbageskridt? 😛


Humleren
 
Overclocker
Tilføjet:
15-03-2010 18:12:28
Svar/Indlæg:
143/5
Oh, M.Beier. Jeg har heller ikke noget fornuftigt at bidrage med.


NoNig
 
Elitebruger
Tilføjet:
15-03-2010 18:26:09
Svar/Indlæg:
23132/740
-> #16

For udviklere, må det være et skridt frem. For folk der gerne vil have ting som bare virker (alá mobiltelefoner, medieafspillere etc.) er det nok også et skridt frem. For folk som gerne vil pille, rode og rage rundt, er det nok et skridt tilbage 🙂

Det er jo lidt som at se udviklingen tage stormskridt frem, for at ende med en løsning som vi havde i begyndelsen. Altså dengang der kun var en chip til at tage sig af det hele. Nu mangler vi bare en CPU/GPU/RAM/SSD løsning, med indbyggede stik, der kan ligge i en tændstikæske... så er vi sgu ved at være der baby! 😎


Johnny
 
Superbruger
Tilføjet:
15-03-2010 19:00:51
Svar/Indlæg:
2127/11
"Nu mangler vi bare en CPU/GPU/RAM/SSD løsning, med indbyggede stik, der kan ligge i en tændstikæske... så er vi sgu ved at være der baby!"

I'd buy one for sure. Forudat den ikke kostede det samme som den bil jeg i forvejen ikke har råd til. Genialt mediecenter til de überflade LED tv vi alle gerne skulle eje 😛

..og ja.. Det var netop min tanke. Udviklingen ser jo helt cyklisk ud pt. Vi er på vej tilbage til der hvor vi startede. Jeg er enig i at hr og fru Jensen formentlig vil være glad for den ide, og - desværre - at os der er sære nok til at gide rode med dimserne, er så tilpas meget i undertal, at vi kan skrige os hæse, uden at der løftes så meget som et øjenbryn hos udviklerne. Ikke mindst spiludviklerne, for hvem vi er enige om den store forsimpling må være en gave. Jeg er spændt på hvor længe pc'en, som den alsidige og opgradérbare spillemaskine vi kender den som, får lov at overleve.


MartinRos
 
Elitebruger
Tilføjet:
15-03-2010 19:07:54
Svar/Indlæg:
3907/73
Tænk at man gider bruge sin tid på at sidde at prøve at gøre sig klogere end de folk Nvidia har ansat.

Er med Gripen90 på denne her.


Illuminati
 
Elitebruger
Tilføjet:
15-03-2010 19:07:58
Svar/Indlæg:
10398/435


Humleren
 
Overclocker
Tilføjet:
15-03-2010 19:14:15
Svar/Indlæg:
143/5
M.Beier, kalder du dig selv for konditoren inde på Arto?


Vaptor-x
 
Superbruger
Tilføjet:
15-03-2010 20:09:45
Svar/Indlæg:
475/22
Det er dælme sjov læsning det her, man kan tydlig se hvem der tilbeder Nvidia i nogen af svarene 🤣
Fakta er efter min mening, at Nvidia for folk til at tale om andet end deres manglende evne til at levere et DX11 kort, og de er langt bagefter ATI, ved at lave dette stunt... 🙂
Det kan da vel være fuldstændig lige meget hvem der fandt på at kalde det for en GPU, bare de kan levere noget brugbart. 😎


M.Beier-old
 
Superbruger
Tilføjet:
15-03-2010 20:33:15
Svar/Indlæg:
1189/118
Lader til det er for meget at forholde sig til et link... Men så igen, hvis man er indædt fan, og dem man nu engang tilbeder, laver ged i den, som nvidia har gjort, så er det vel naturlig forsvarsmekanisme at koble sans og samling fra.

#22
Hvad er Arto?


NoNig
 
Elitebruger
Tilføjet:
15-03-2010 20:41:45
Svar/Indlæg:
23132/740
-> #23

Er jeg en af nVidia-tilbederne?


Johnny
 
Superbruger
Tilføjet:
15-03-2010 21:17:32
Svar/Indlæg:
2127/11
Jeg er også nysgerrig.. Regnes jeg mon som en af disse fanbois, af de to kvikke hoveder der mener at observere denne tendens?


M.Beier-old
 
Superbruger
Tilføjet:
15-03-2010 21:24:55
Svar/Indlæg:
1189/118
#26
Næh.... Tror faktisk ikke du er fanboy....
Men såfremt du var ville jeg da også være græsk katolsk herom.... Det er tilgrin at forsvare usande data som nvidia skriver på deres egen hjemmeside....
Så kom spammer holdet og kørte tråden af pinden.... Sådan kan det jo gå....


Johnny
 
Superbruger
Tilføjet:
15-03-2010 21:45:32
Svar/Indlæg:
2127/11
#27 Det må du kunne gøre bedre. At læne sig tilbage og give alle andre skylden for noget man er muggen over, er lige søgt nok. Både Gripen og jeg forsøgte at forklare dig lidt om hvordan man forholder sig lidt sagligt til tingene, og det fik Gripen på hatten for, og jeg blev ignoreret.

Imo leger du offer her, uden at overveje at dit oplæg og videre optræden i diskussionen, mildt sagt ikke var heldig rent sagligt. Som jeg allerede har skrevet: Du lægger ud med én påstand, og da den så diskuteres, smider du nye i hovedet på folk. De oplysninger skulle have været smidt på bordet fra start af.

Der ud over: "Det er tilgrin at forsvare usande data som nvidia skriver på deres egen hjemmeside". Da jeg ved at Allan (NoNig) er ret godt inde i de sager, giver jeg Nvidia medhold i at de tilsyneladende skabte den første rene gpu. Hvis du mener at det er usandt, bedes du mide beviser derpå. Hvis du taler om andet end den ene ting jeg har kommenteret på, må du henvende det til rette vedkommende. Jeg kan som sagt ikke stå til ansvar for hvad du har læst, når jeg ikke ved hvad det er.


Humleren
 
Overclocker
Tilføjet:
16-03-2010 08:23:42
Svar/Indlæg:
143/5
M.Beier er ret sjov. Ikke nok med det, så har han jo også hænderne i den lange ende...


Miccim
 
Elitebruger
Tilføjet:
16-03-2010 17:03:26
Svar/Indlæg:
3233/128
TDP er ændret fra 275 W til 325 W. LOL mand et lorte kort. 😀


colombodk
 
Elitebruger
Tilføjet:
16-03-2010 17:13:45
Svar/Indlæg:
826/60
hm, Tseng Labs ET4000 var da den første gpu.... 🤡


M.Beier-old
 
Superbruger
Tilføjet:
16-03-2010 20:02:53
Svar/Indlæg:
1189/118
#28 det er jo gjort? Allerede i #8

Du eller grippen har ikke forholdt sig til linket i #0 endnu derimod...


#33
phg
 
Elitebruger
Tilføjet:
16-03-2010 21:32:01
Svar/Indlæg:
1399/43
#30
mand en lortekommentar,det er kun et rygte og det ved du udmærket 🤡


Gripen90
 
Senior Skribent
Tilføjet:
16-03-2010 21:43:33
Svar/Indlæg:
15982/637
#32: Jeg har forholdt mig til linket, og jeg har også skåret ud i pap og bøjet i neon hvad det er jeg skriver om, men du ignorerer det jo efter velbehag - så hvorfor skulle jeg begynde at forholde mig til det nu ?.

Svaret blev redigeret 1 gang, sidst af Gripen90 d. 16-03-2010 21:44:07.


NoNig
 
Elitebruger
Tilføjet:
16-03-2010 21:44:25
Svar/Indlæg:
23132/740
-> #32

Der er jo ikke noget at forholde sig til... Jesus Christ mayn. Hvis ikke der skal mere end dét til at vælte din hest af pinden på koen der isdanser i drivhuset med sten under pelsen selv af eget format... så skal du nok ikke gå igennem alt pressemateriale der smides rundt omkring.

Jeg siger det kun for din egen skyld. Nåja, og så lige på falderebet: Julemanden og Påskeharen er kærester. Tro det eller ej, men det er sandt.


Johnny
 
Superbruger
Tilføjet:
16-03-2010 21:54:31
Svar/Indlæg:
2127/11
#32 What ¤34 said. Det har vi begge forklaret til hudløshed, og nu må det være nok. At du ikke laver et oplæg der forklarer præcist hvad du vil fortælle, er ikke vores skyld.


M.Beier-old
 
Superbruger
Tilføjet:
17-03-2010 08:55:44
Svar/Indlæg:
1189/118
#36
Nu bad du mig om at forholde mig til;
Det er tilgrin at forsvare usande data som nvidia skriver på deres egen hjemmeside". Da jeg ved at Allan (NoNig) er ret godt inde i de sager, giver jeg Nvidia medhold i at de tilsyneladende skabte den første rene gpu. Hvis du mener at det er usandt, bedes du mide beviser derpå.

Dette blev gjort med følgende;
nvidia PR's term for GPU er beskrevet her;
"a single-chip processor with integrated transform, lighting, triangle setup/clipping, and rendering engines that is capable of processing a minimum of 10 million polygons per second."


For at vende tilbage til #0;
Bl.a. denne betegnelse står for "blandt andet", kan være dette lysner lidt op for forståelsen.... Hele konteksten forudsætter at man trykker på linket....

Hvad vil i have? Hvis man laver en tråd som omhandler LOTR, skal man så også beskrive filmene fra ende til anden??? Eller aver man en fin henvisning til bogen????
Saml nu forhelvede løgene op fra gulvet.... Der er ikke redigeret i #0, det fremstår temmelig klart...
At i fik hæftet jer i én sætning, fra start af, og diskuterer kun herom, det har intet med hvad indholdet oprindeligt var afgøre.... Igen, tilbage til WWII referencen.... Hvis du fordyber dig i hele WWII, vil du så kun være i stand til at snakke om Stalingrad?

#34
I såfald har jeg mistet synet, kan ikke se hvor du forholder dig til linket ud over GPU påstanden.


Gripen90
 
Senior Skribent
Tilføjet:
18-03-2010 21:50:57
Svar/Indlæg:
15982/637
#37: Ja det har du nok ret i. Jeg skrev udførligt flere gange at det var GPU påstanden jeg behandlede... Ikke de andre ting. Men det betyder jo ikke at jeg ikke har forholdt mig til det andet også. Men hvis jeg skulle og så det endte ud i hver eneste kategori, hvor jeg skulle skære ud i pap og bøje i neon, så ville det koste mig mere tid en jeg overhovedet gider bruge på event-journalistik.

Du overser noget ekstremt væsentligt i det du selv henviser til.

Citering: "Dette blev gjort med følgende;
nvidia PR's term for GPU er beskrevet her;
"a single-chip processor with integrated transform, lighting, triangle setup/clipping, and rendering engines that is capable of processing a minimum of 10 million polygons per second." "


Det er lige præcis transform & lighting (T&L) enheden, så var grundlæggende i GPU begrebet. T&L fandtes kun på software niveau ! GeForce 256 var chippen der indførte T&L på hardware plan (Ligesom Voodoo5 fik Anti-aliasing behandling hardware baseret inkl. T-Bufferen).
T&L er iboende i GPU begrebet og i dag kender vi T&L enhederne som pixel shader, vertex shader og bare som shader units.

Pas nu på med WW2 associationen inden det ender i selvmål.


Svaret blev redigeret 4 gange, sidst af Gripen90 d. 18-03-2010 22:09:13.