Farveller til monstergrafikkort-æraen

Diverse d.  15. april. 2007, skrevet af Mathis77
Vist: 511 gange.

Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 20:01:57
Svar/Indlæg:
6293/359
Hey m8s

dette er ikke en tråd om hvem der er eller blir bedst (intel vs. amd) men ku være en tråd om, at sagt ordentligt farvel til sit grafikkort om 1 års tid...

jeg er ret sikker på mit 7600GT blir det sidste grafikkort jeg har købt...
http://arstechnica.com/news.ar...

-så er vi forfra hvor vi var i midt 90erne - nu ser alt bare lidt bedre ud, hedder noget andet, og kør lidt stærkere - thx god 8)

Hygge!
Mathis :D

!-!Shake!-!
 
Elitebruger
Tilføjet:
15-04-2007 20:03:32
Svar/Indlæg:
3944/384
Hvad mener du? :S


Shake



Advanced
 
Elitebruger
Tilføjet:
15-04-2007 20:07:21
Svar/Indlæg:
6899/119
Tror han mener de løsninger AMD og Intel "snart" smider på gaden hvor cpu og gpu er i ét.

Tror dog næppe det kan rule noget som helst før om et stykke tid.



Gripen90
 
Senior Skribent
Tilføjet:
15-04-2007 20:09:15
Svar/Indlæg:
15982/637
Monstergrafikkort æraen har været her i over 10år og den fortsætter. Intel's initiativ er flot men det kan altså ikke følge med udviklingen af deciderede grafikkort hvor der sker landvindinger ca hvert halvår.
Det er hellere ikke særligt fikst at skulle skifte bundkort kort at opgradere den grafiske ydelse... derfor er "extension" kort stadig den bedste løsning.
Grafikkortet er ikke truet.



!-!Shake!-!
 
Elitebruger
Tilføjet:
15-04-2007 20:09:57
Svar/Indlæg:
3944/384
#2 Nååå... Jeg tror der går rigtig mange år før vi ikke ser et GFX mere...


Shake



Gripen90
 
Senior Skribent
Tilføjet:
15-04-2007 20:12:04
Svar/Indlæg:
15982/637
Tror også du måske har overset sætningen:
So I expect a Nehalem CPU/GPU combination to consist of a dual-core Nehalem CPU that sports an on-die memory controller, with a GPU sandwiched in the same package with it. This will be a killer mobile part in terms of performance per watt.
Dvs. ja en udemærket løsning til "mobile desktop markedet", men ingen løsning til "high definition gaming".



Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 20:18:54
Svar/Indlæg:
6293/359
Hvad så med AMDs Fusion??

var det ikk en ide at lave en fælles enhed med cpu og grafik og undgå FSB og flaskehalse? GPUen er vel CPUen overlegen i arkitektur og teknologi, så hvorfor egentlig stadig ha cpu, var måske den måde jeg sku ha vendt den...

jeg mener at en af de to enheder ryger ud... ATI er slut - det hedder AMD nu... og mon ikk nvidia blir købt af intel engang senere i år??




Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 20:21:21
Svar/Indlæg:
6293/359
Altså forstås på den måde: grafikkortet blir til det ny bundkort... kan i følge mig? 8) :D



Advanced
 
Elitebruger
Tilføjet:
15-04-2007 20:26:44
Svar/Indlæg:
6899/119
Du sidder og ønsketænker - Det kommer altså ikke til at ske før om mange år alt det du siger nu :)

Hvis det da overhovedet kommer til at ske.

Personligt tror jeg ikke på Intel opkøber nVidia.



Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 20:41:24
Svar/Indlæg:
6293/359
#8 hvis du har læst linket så sker det måske næste år allerede...

der har der været spekuleret meget i denne sammenlægning - jeg ser det som en naturlig udvikling...

og ja med de strømforbrug og størrelser vi er oppe i med nutidens grafikkort, så er udviklingen da helt gal, Gripen...
Dvs. ja en udemærket løsning til "mobile desktop markedet", men ingen løsning til "high definition gaming". ... core blev også først lavet til bærbar markedet og så senere overført til stationær gamer-pcere.... jeg vil da hellere game på sådan en til næste år, end 2 x 8950GX2 i SLI... læste I ikk, at computerkraften i de kort blir x16 i forhold til kort i dag?? eller skal jeg også finde det link til jer??

jeg synes ikk 2008 er langt væk - selvfølgelig skal man også nyde nutiden og være glad for det man har...og det er også som det er nu med mit 7600GT og E6600... men jeg kan bare godt lide at se tingene lidt i perspektiv - og ikke holde sig til kolde fakts...

havde håbet på lidt positiv respons - og ikk diss over ny teknologi - det er det samme vista også lider under synes jeg, og det fejler jo ingen ting, tværtimod

8)



Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 20:47:03
Svar/Indlæg:
6293/359
ku være det her var bedre læsning??

http://www.theinquirer.net/def...

hygge!

Mathis :D



~ashes~
 
Elitebruger
Tilføjet:
15-04-2007 20:49:10
Svar/Indlæg:
828/108
Tjaa... Det er ikke til at sige... Det sker nok ikke bare sådan lige i en brat overgang. Jeg tror nok jeg ender med endnu et GFX inden jeg hopper på den fusion. Men det er spændende, og alligevel ødelægger det lidt "min nostalgi" omkring GFX. Det er dejligt med de forskellige sammensætninger af hardware vi kender nu synes jeg.

Men ja, vi er vel et sted i tiden hvor alt fornyes, men det har tit vist sig at tingene ikke af den grund forenkler eller forbedrer tilværelsen.

:)



Advanced
 
Elitebruger
Tilføjet:
15-04-2007 20:50:56
Svar/Indlæg:
6899/119
Der bliver skam ikke disset fra min side - sådan skulle det ikke opfattes.

Mener bare man skal slå koldt vand i blodet, da intet er sikkert endnu.

Men ja Vista er herligt ;)



Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 21:00:06
Svar/Indlæg:
6293/359
#12 sorry m8 - jeg er nok bare en træt gammel mand på 29, som har løftet for mange flyttekasser i denne weekend, hehe

ja ny teknologi er altid spændende.... hermed mener jeg ikk Ge6800,7800,8800kort..men når der sker noget helt andet... altså ikk at man går fra pentium 1,2,3,4 (gad ikk ha pentium 4, fordi den hed det den hed, lol) men underforstået: havde Core2 hedder pentium 5 var den ikk blevet så populær... men fordi at den ku så meget mere, sku den ha nyt navn... smart ikk??

AMD fusion og intels version af dette koncept er sød musik...

men jeg var nok alligevel bedre tjent med et 8800gts, så jeg når at opleve DX10 inden den er yt, hehe -

enig vista er herligt 8)



Kasseren
 
Elitebruger
Tilføjet:
15-04-2007 21:03:00
Svar/Indlæg:
1814/48
Intel har ikke brug for nVidia, de har allerede en udemærket grafikafdeling, så det er nok usandsynligt at de bliver samme virksomhed.

Med hensyn til spørgsmålet om grafikkortenes endeligt vil der, så længe der er nok der vil betale, altid være nogen der skal skabe den chip der giver lidt højere ydelse. Det kan være at vi slipper af med grafikkortet, men den seperate grafikchip vil, i mit hoved, være med os så længe der er computere.

Når det kommer til spørgsmålet om hvorfor vi har brug for en CPU, når nu grafikchips er så meget stærkere til beregninger, ligger grunden i den måde som de behandler de data der går ind. En processor skal være i stand til at arbejde med mange forskellige typer data og give mange forskellige typer output en GPU skal have input data struktureret(et af processorens opgaver) før de kan skabe et brugbart output.

Håber det besvarer spørgsmålene :)



Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 21:03:10
Svar/Indlæg:
6293/359
#11 ja ven, du har helt ret... billedekvaliteten er sikkert fantastisk om 20 år...men det er mit syn desværre ikk i forhold til i dag (ja, ok hvem ved?) - og ja, så er vi lige vidt...

vores børn for sindssygt gode computere at lege med hehe 8)



NoNig
 
Elitebruger
Tilføjet:
15-04-2007 21:08:20
Svar/Indlæg:
23132/740
-> #0

Hvis man ser bort fra de tekniske detaljer, så vil man kunne se, at konsol og PC smelter mere sammen i ét. Vi har de seneste år set flere multimedie extendere (måske der sidder nogle folk og seriøst spekulerer i ordet "multimedie"... : "Den gik ikke med 'Multimedie PC' Knud, måske vi skal finde på noget andet?!" :00) og konsoller der har flere egenskaber end blot at afvikle spil.

GPU'er er jo nærmest CPU'er overlegne i regnemæssig forstand, og det er nok heller ikke et helt tilfælde, at Cell CPU'en i PS3'eren er så vild som den er. Når spilprogrammørerne og hardwareudviklerne bliver enige, så har man jo potentielt en konsol med 7 CPU'er til rådighed, til lige netop det de har lyst til.

En CPU til afvikling af system og software, en eller flere CPU'er til central afvikling af spil og AI, en eller flere CPU'er til grafik og endelig en CPU til udregning af surroundlyd i spil som "Motorstorm" og "COD3".

At PC'erne skulle følge den udvikling? Tjah, hvorfor ikke. Hvis det går som de skriver i artiklen, så får vi bærbare spillekonsoller (PS3'ere og Xbox360'ere) og ikke bærbare PC'er :D

Der er, tror jeg, også en grund til at PC'en er blevet så udbredt som den er. "Valgmulighederne" er brede, men brugervenligheden er i top. Man køber helpakkeløsninger i stil med Apples Macs og har ikke de store tanker i opgraderinger, til trods for computerens opbygning lægger op til det. Se bare Toshiba, HP og alle de andre "store" der nemt kunne have lagt et integreret råvildt grafikkort i den bærbare. Men, det til trods, alligevel vælger en udskiftelig standard (højest sansynligt pga. rep- og produktionsomkostninger).

Der går ikke længe, tror jeg, før vi ser flere standardiseringer. Nu tænker jeg ikke på nærmest permanente løsninger som f.eks. Mac, men på løsninger hvor opgraderingsmulighederne er begrænsede. Medmindre man er ultranørd og supervild med en loddekolbe og multimeter :00

Bottomline; jeg tror vi kommer til at se en sammensmeltning af komponenterne i PC'eren som vi kender den i dag, og i regelen blot er overladt til programmørernes og hardwareproducentens luner. Men hey, selvom Ageia, ATi/AMD, Intel, nVidia, S3, Creative Labs, Matrox (osv. osv.) vælger en integreret permanent løsning. Så har vi jo stadig muligheden for at opgradere RAM, harddisk og software, ganske som på en Mac... :p





Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 21:09:01
Svar/Indlæg:
6293/359
#14 ja ud med grafikkort, men behold grafikchippen...genialt...og smelt den sammen med en 8/16core cpu--namnam-nehalem



Mathis77
 
Elitebruger
Tilføjet:
15-04-2007 21:12:30
Svar/Indlæg:
6293/359
#16 fremragende formuleret...ganske enkelt...



palle
 
Elitebruger
Tilføjet:
15-04-2007 22:44:14
Svar/Indlæg:
2307/37
#0, jeg tror, du overser, hvorfor Intel og AMD overhovedet arbejder med disse ideer. Det har absolut intet at gøre med gamerfolket. Langt størstedelen af alle computere (medregnet bærbare) er med integreret grafikkort. At have en seperat grafikchip på bundkortet er både fordyrende og mere strømslugende end en gpu integreret i cpu'en. Derfor den store interesse fra Intel og AMD.

Så lad du bare være med at købe flere grafikkort, men så kommer du heller ikke til at spille nye spil. Men mange er jo også tilfredse med at spille SIMS og CS... ;) :e



Claus35
 
Elitebruger
Tilføjet:
15-04-2007 22:51:13
Svar/Indlæg:
5410/123
Jeg håber ikke vi får sådan en "alt i en hardware klods pc". Jeg kan bedre lide at vi har tingene delt fra hindanden, så man bare kan skifte en enkelt ting, eller oc en enkelt ting. Det ville da også være irrerterende hvis de forskellige dele begrænsede hinandens oc (mere end de gør nu).



Gripen90
 
Senior Skribent
Tilføjet:
15-04-2007 23:24:16
Svar/Indlæg:
15982/637
Er det kun mig der ser ulempen i at skulle skifte et helt bræt ud for at opgradere til mere ydelse, en bare at udskifte eet komponent ?. Dvs komplet reinstall af alt med div drivere mv el. en obligatorisk format C, fordi at ikke bare eet komponent er udskiftet men hele det basale grundlag. Det er muligt det løser nogle flaskehalse sådan direkete indgriben ml. cpu/gpu mv, men jeg synes bare ikke det er en rent opgraderings-venlig/praktisk løsning.

Alt det der med med at anvende "grafikkortet" som bundkort har der jo været eksperimenteret med fra ATI's side tilbage i 2001/2002, så princippet er ikke nyt.

Mht Apple/Mac så er der det de færreste der står i hjemme... gad du spille på en Apple/mac ?

IMO hvis der skulle være en genial løsning mht GPU/CPU problematikken så burde man følge goe gamle 3Dfx tanke med en udskiftelig GPU i samme stil som når man skifter CPU. Det eksperimenterede de med på Rampage. Dvs eet "bræt" med en socket til CPU og en socket til GPU og så kunne man lave en direkte bridge kommunikation. Rammene ja det kunne jo så være embedded lige som Bitboys fra Finland i 2000/2001 legede med.



Anzelz
 
Elitebruger
Tilføjet:
15-04-2007 23:37:42
Svar/Indlæg:
2343/272
Hvis vi ser på det offentlige marked peger det allerede i den retning jeg tror det vil gå: Dedikerede spillekonsoller hvor hardwaren kan udnyttes fordi spillene udvikles efter en fælles standard, og så rene multimedie pc'er til surf, skrivning, musik og alt det der.. Evt. som server til konsollen.

Det er i hvert fald sikkert at pc'en ikke holder længe mod konsollerne, der kan simpehlthen ikke konkurreres mod en maskine til 3000 der yder det samme som en pc til 12.000.

Lige så snart der kommer ordentlig mus og tastatur til konsollen er jeg i hvert fald smuttet:) Det er hyggeligt nok at lege med pc, men også voldeligt provokerende altid at skulle pille før den dur..



Gripen90
 
Senior Skribent
Tilføjet:
15-04-2007 23:47:44
Svar/Indlæg:
15982/637
Har i så også overvejet at med sådan en fremtid i møde så er der ikke brug for en side som HWT.dk længere ? Hvis PCen bliver en konsol, så er det farvel til tweaking, overclocking, v-mods etc - end of an era !
Ingen forskelle ml. brugeres HW, alt standardiseres og alle benchmarks mv bliver ens (hvis der bliver noget af det). Opgraderinger er passe, grafikudviklidgen ryger ned i tempo hvis der ikke kan opgraderes på kasserne, fordi alt er på eet bræt.
Javist har vi alle brokket os over PC'erne og når spil ikke virker mv, men det er prisen for en alsidig maskine hvor der er flere mio. kombinations muligheder og ikke alle er lige kompatible altid.... men har ulemperne ved PCerne været størrer end fordelene ? nej det tror jeg ikke.

...



Advanced
 
Elitebruger
Tilføjet:
15-04-2007 23:52:39
Svar/Indlæg:
6899/119
Ja lige præcis #23 - tragisk at folk kan ønske sig sådan en udvikling.

#22

Ja der kan være mange timer med sved og tårer når det ikke funger, men du glemmer hvor godt man får det når det kommer op at køre :p



#25
E2X
 
Elitebruger
Tilføjet:
16-04-2007 08:58:10
Svar/Indlæg:
4018/217
Kunne være nice hvis at gpuen kunne skiftes lige som en cpu så det hele sad på et kort. syntes det er underligt at smide gode ram, transformer (strømstyring) og print ud når man skal have nyt grafikkort.
Ved godt at de fleste sælger eller giver det væk men det vil være meget mere alsidigt hvis man kunne skifte ram og gpu ud.
istedet for at udskifte hele kortet kunne man i framtiden bare sætte en ny gpu i.
Kunne være nice hvis der i fremtiden var udskiftelige cpu, ram, gpu, gddr ram og måske også chipset ;)
Så tror jeg at alle ville være glade ;)




NoNig
 
Elitebruger
Tilføjet:
16-04-2007 09:51:13
Svar/Indlæg:
23132/740
-> #21

Nu er der jo muligheden for at køre Windåze på en Mac, samt med Crossover/Parallels er der mulighed for afvikling af nogle spil.

Men som nævnt tidligere, så bliver det jo en standardisering. Forestil dig en Mac med samme brede softwaremuligheder som på en PC, men ingen mulighed for individuel udskiftning af CPU/GPU. Jeg håber det så sandelig heller ikke. Der skal være plads til nørderne. Men faktum er jo, at omkring 90 % af alle computer/PC-brugere ikke kan åbne en computer, endsige kigge ind i kabinettet og sige hvad der er grafikkort, harddisk, bundkort eller RAM.

De 3 % af computerbrugerne som har forstand på hardware (og nu mener jeg på HWT niveau) fylder ikke så meget i markedsandelene, ud over, at de fortæller tingene videre, står i butikkerne og generelt fylder meget i diskussionen om hardware og software.

De sidste 2-3 % af brugerne, forstår nærmest ikke deres egen computer, hvor hvem diskussionen er lige meget.

Jeg håber da ikke at vi får en konsolidering (get it? :00), af vores elskede PC'er, men jeg er bange for at det ikke ligger så langt ude i fremtiden.

Intel, Verdens mest sælgende grafikløsningsproducent, sætter jo nærmest den mindste fællesnævner mht. grafikløsninger. Og vi har, så vidt jeg har erfaret, haft muligheden for at game på den bærbare siden Intel lancerede 'Intel GMA900'. Hvor altså spil som "Quake 3", "Battlefield 1942" og mange andre lign. titler.

Det er jo trods alt ikke lige spil i småtingskategorien: "7-kabale".

Så det er jo blot et spørgsmål om tid, før vi ser rimelig nice integrerede løsninger. Og nu snakker jeg ikke om "integrerede" X200 o.lign. løsninger.

Men jeg kan ikke sige andet end at jeg er enig med dig. Problemet er nok bare, at hvis det ender med en "GPU socket", så skal ATi/AMD, nVidia og Intel pludselig blive enige om en socket til GPU'en. Hvor nyttig bliver PCI express så? Hvilken socket skal de blive enige om?

Let's face it. Intel og AMD har ikke været enige om en socket siden Socket 7 :00

ATX (Intel), PCI express, AGP (vistnok også Intel), osv. har der jo ikke hersket den store debat og demokrati omkring ;)



Gripen90
 
Senior Skribent
Tilføjet:
16-04-2007 12:08:29
Svar/Indlæg:
15982/637
#26:PC'erne har været her siden ... tja hvornår sådan rigtigt ? i starten af 90erne og jeg har svært ved at tro at over en periode på 17år der er det stadig de samme 3% der kan åbne en PC el. i det mindste ved hvad den består af.
Fakta er vel at en PC er hvermands eje (godt og vel idag) og jeg kender faktisk ingen familier der ikke har en bare lidt kyndig person mht hwt og godt kan åbne og skifte lydkort, grafikkort ram som det basale. Unge i dag bliver jo flasket op med teknologi på den ene og anden led og det gælder både piger og drenge. Jeg tror ikke på at procent satsen på den rent generelle "ingen viden om min PC" er så høj som den var for bare 10år siden.
Det er muligt det er ikke alle der kan åbne en PC, men jeg er sikker på at der er langt flere der kan det i dag end i 1997.

Jeg tror også en del af problemet er at forbrugerne kun tager til sig og ikke er kritiske nok over hvad de får. I sidste ende er det jo forbrugeren der sætter dagsordnen, er man ikke tilfreds køber man ikke produktet og så sætter producenten penge til.
Så måske i stedet for altid at følge på producent bølgen og lade dem diktere hvad vi skal have, så var det måske på tide med en vice versa !



Emillos
 
Overclocker
Tilføjet:
16-04-2007 12:48:50
Svar/Indlæg:
14079/622
Jeg har svært ved at tro, at "PC-æraen" som sådan er slut - det må jeg indrømme. Men udviklingen bliver da interessant at følge, helt sikkert.
Anyway tror jeg ikke på at vi vil se udskiftelige GPUer, med "GPU sockets" på bundkort. Så skal vi, som sagt, til at købe bundkort både efter CPU socket OG GPU socket, hvilket vil være noget rigtigt rod.
Til gengæld kunne det være pænt fedt, hvis MXM moduler blev mere udbredt - lidt ala den måde MSI har gjort det på.
. Hvis rammene så bare også var udskiftelige ville det være kanon :e.
Men det er nok utopisk at tro, at sådan nogle produkter rent faktisk kan vinde frem, da der som NoNig siger, er alt få få der gider at rode med hardware for alvor. I min omgangskreds er jeg da klart den største computernørd, og jeg kender faktisk kun én (udover dem jeg kender fra HWT selvf.) udover mig, der rigtigt er istand til at rode med hardware. Så ja, vi snakker få procent af computerbrugerne. Ellers ville HWT jo også have langt flere brugere :p..


->NoNig

Hvor har jeg savnet dine lange uddybende indlæg :f
:P:)



Gripen90
 
Senior Skribent
Tilføjet:
16-04-2007 12:56:20
Svar/Indlæg:
15982/637
Så ja, vi snakker få procent af computerbrugerne. Ellers ville HWT jo også have langt flere brugere

Jeg tror også der stadig er en del i DK som roder med HW som ikke kender siden. Og om man vil bruge siden selv om man er HW kyndig er en anden sag.
Ja jeg tror heller ikke alle og enhver kan, men jeg er overbevist om at der er flere der kan noget med dem end et årti tidligere.



NoNig
 
Elitebruger
Tilføjet:
16-04-2007 13:04:41
Svar/Indlæg:
23132/740
-> #27

Misforstå mig ej, jeg snakker ikke om en bestemt mængde af personer, men en procentdel af den stadigt stigende skare af PC-brugere.

Jeg vil ikke lægge skjul på, at en stor del af min "fordom" om (undskyld udtrykket) 'dumme PC-brugere', stammer fra min tid i Merlin, hvor man møder stort set alle PC-brugere. Lad os forestille os, at samtlige brugere på HWT.dk er lig den samlede mængde af "rigtige nørder". Niveauet varierer, men jeg tror at det stemmer overens med den samlede mængde af HOL, Tweak osv. hvor mængden af "rigtige nørder" også er variende.

Men for nemheds skyld, så er der ca. 10.000 (et fiktivt tal) brugere af og på HWT.dk. Der bor ca. 6.000.000 mennesker i lille DK og ca. 90% af dem har adgang til eller bruger en computer mindst en gang om ugen. Det vil, med lidt hurtig hovedregning, sige, at under 0,2 % er "rigtige nørder".

Som sagt, vi fylder meget, for hinanden, men vi er en minoritet i det store billede.

Sammenlign det med den skole man gik på. Hvor mange ud af skolens ca. 500 (igen, fiktivt tal) elever var reelle nørder der kunne skille en computer ad og samle den igen på en dag og uden hjælp?!

Det er dem der brokker sig, plus de mange der bare kan finde ud af at skifte hardware. Resten (efter min hypotese), nemlig de 90-95 % der "bare bruger" computeren, er ligeglade. Er går den som en and, taler den som en and og er der tilstrækkeligt nok med beviser, så er det sgu nok en and.

Så kan det være ligemeget hvordan anden ser ud indvendig, da den stadig rapper og vralter.

Kører computeren som den skal, så kan det være ligemeget hvordan den er bygget op. Bare den virker.

De fylder rigtig meget, og tro mig. Det er ikke de resterende 10 % af brugerne der lægger pengene i kassen hos producenterne. Det er vores forældre, venner og bekendte der ikke skiller computeren ad mindst éen gang om måneden...

Nu siger du jo selv familie. Jamen, ud af 20 mennesker, hvem ved så noget om computere der kan være til reel hjælp ud over frasen "Bare koldboot og gendan den :l"?! Det er muligt der er en eller to. Men det er stadig omkring 10-20 % og hvordan er niveauet så?

Bare kagen smager af sukker, er det ligemeget om det er sødemiddel eller indtørret drue :e

-> #28

Har skam også savnet jer :f

-> #29

Præcist. Om det er 100 eller 100.000 der rent faktisk ved noget, så udgør de stadig en lille procentdel af den samlede mængde PC-brugere.




Emillos
 
Overclocker
Tilføjet:
16-04-2007 13:10:13
Svar/Indlæg:
14079/622
->#29

Ja, der er nok kommet flere, i og med at HW er blevet så meget nemmere at rode med gennem årene.
Og kommentaren med HWT var nu også en joke ;).. men hvis 10-15% lå og rodede med hardware tror jeg nu at de danske hardwaresider ville være større end de er.

->#30

"Bare kagen smager af sukker, er det ligemeget om det er sødemiddel eller indtørret drue" Haha - sikke en metafor :e..



Gripen90
 
Senior Skribent
Tilføjet:
16-04-2007 13:16:56
Svar/Indlæg:
15982/637
Indtørret drue ? det er jo en rosin ?
"<I>Værsgo Herman her er lidt rosin-sukker til kaffen</I>"
:e



NoNig
 
Elitebruger
Tilføjet:
16-04-2007 13:34:13
Svar/Indlæg:
23132/740
-> #31 + #32

Har også savnet jer to dompap'ser. "Druesukker", get it?! ;) :e :p

Guess not, ellers skulle man jo ikke forklare pointen i alle jokes for jer :00

(;))



Emillos
 
Overclocker
Tilføjet:
16-04-2007 13:44:31
Svar/Indlæg:
14079/622
->#33

Nåeh ja.. men så skulle du li'som ha' sagt "indtørret pulveriseret drue" - da'h :00:e

Eller hey vent, jeg sagde faktisk ikke at jeg ikke forstod den - blot at det var en fremragende metafor. Hurra for tvetydighed..håhå.. :P



#35
E2X
 
Elitebruger
Tilføjet:
17-04-2007 09:14:53
Svar/Indlæg:
4018/217
Gad vide om man kan bruge rosiner til køling af en gpu eller at man kan lave druer til rosiner med varmen fra en gpu :i



#36
B@NG
 
Elitebruger
Tilføjet:
17-04-2007 11:19:27
Svar/Indlæg:
3640/1231
Well, nu skal man passe på hvad man siger, for da netkort og lydkort blev integreret, hed det sig også at det aldrig kunne blive godt nok til de krævende. Og godt nok er lydkort og netkort bedre som single kort (for det meste) men kom ikke og sig at de integrerede løsninger ikke tilfredsstiller næsten alle i dag ;)

Nu er raid-controllere også ved at være med...
Jeg er enig i at det er en naturlig udvikling, og jeg er enig i at der ikke går 10 år før det sker... men det er selvfølgelig stadig spekulation :e