hej.
Synes det er fedt at du vil bruge tid på at skrive en forholdsvis lang artikel, thumps up! :)
Men, må dog pointe nogle ting ud :/ :
Processordelen i artiklen er jeg lidt ked af. Du starter egentlig med 386 hvilket jeg synes er synd. 8086 (og 8087 som var CO-processor til flydende tal) dannede grundlag (på et andet grundlag - som altid) til 286 som introducerede "protected mode" som gør at XP, Linux osv. er sikrere end fx DOS. 286 dannede grundlag for 386 som introducerede 32 bit og siden da er der kommet forskellige instruction set til, som for eksempel MMX. Men egentlig, er det først med vores dejlige 64 bit processorer at der er sket en, hhm, evolution :)
Du skriver også at man ikke kunne vælge andre styresystemer. Dette er falsk, der var mange - nogle billige og andre dyre. Der var fx Minix som kostede 69 $. Da Linus Thorvald skrev Linux havde han Minix på sin computer, og mange idéer i Linux kommer fra Minix. Minix er skrevet af Andrew Tanenbaum og han har udgivet flere bøger om sit Minix styresystem (har lige købt den seneste men desværre ikke fået den endnu) og om OS-design. Den egentlig grund til at skrive Linux og ikke bruge Minix, var at Minix havde for få programmer osv. Andrew Tanenbaum ville ikke gøre det større da han så ikke kunne undervise sine "students" i Minix og OS programmering. Så altså, idéen om Linux kommer fra Minix og Andrew Tanenbaums bøger.
"Sammen med Nvidia bragte de igen en ny standart til grafik sektoren, dette var bla muligt pga. Windows 95 som kunne håndtere 3D." <- DOS kan håndtere 3D? alle processorer kan sådanset rendere 3D hvis de bare har styrke nok og det har en 16,7 mhz ARM processor også :)
"Få måneder efter udkommer Win98, som egentlig bare er en stor opdatering af Win95, men med mange store huller i bla. sikkerhed der var blevet lappet!" <- Forstår ikke helt sætningen? Men ja, Windows 98 var ikke nogen stor opdatering arkitekturmæssigt, og det var Windows ME bestemt heller ikke.
"Heldigvis skete der intet! Det eksperterne frygtede, var at alle computere kun kunne håndtere "19xx tal", så når året skiftede til 2000, ville de to sidste tal "00" blive fortolket af computeren som om det var 1900. der kom nogle få reaktioner, men intet af betydning!" <- Dette er ikke helt korrekt. Der skete ikke det store ved det, men faren var reel. Grunden til at der ikke skete noget, var at man kendte til problemet. Hvis ikke man havde forberedt sig, ville fx mange banksystemer bryde sammen. I virkeligheden har man kendt problemet i meget lang tid. Det var et sted i 70'erne det virkelig begyndt at blive et problem. Dengang havde mange programmer kun gemt datoer som måned/dag, og når man så kom ind i et nyt år blev det resat til 1. Jan samme år. Så lagrede man det som Måned/dag/et-cifre-år men det blev igen et problem når man kom i et nyt årti. Og så var der jo årtusindårsskiftet. Før i tiden regnede man slet ikke med at software kunne holde så lang tid.
Lidt comments... ikke tag det som negativ kritik men som konstruktiv kritik :) Igen, synes det er fedt med gæsteartikler.