#47: Jeg har nu både TFT og CRT skærm, ganske vist en ældre 20" crt og 20kg tung Iiyama sag med god billedkvalitet, den var blandt toppen i sin tid. Jeg har "leget" med grafikkort siden 1996, og hvad der ikke har været af kort igennem mine hænder ja det vil du ikke vide. Jeg tror, at jeg fra sidste optælling har haft 106 grafikkort i hænderne siden 97 - vanvittigt, ja jeg ved det, men NoNig har også haft sådan en mani 😉
Jeg vil sige, at vi skal langt tilbage i tiden før der er markante forskelle på ATi og nVidia's billedkvalitet (og her snakker vi ikke FSAA og AA mv.). Tilbage i 2001 var der faktisk forskel at se især på de daværende topkort GeForce3 og Radeon 8500.
Radeon kortet gengav meget lyse og lette billeder mens GeForce kortet gengav mere mørke og mættede farver. Da var der tale om en ren faktuel forskel.
Da vi så kom op i Radeon9x00 serien og den tilsvarende GF4 serien var forskellen markant mindre, og jeg vil vove at påstå at selv ved blind tests ville chancen være 50/50 for at gætte hvilken grafikchip der var i brug.
Selvfølgelig har der været mindre variationer, men det har været i det små - og faktisk så små at det i længere tid har været absurd at debattere om kvalitetsforskellen for det reelle billede. I stedet har debatten så været overført til billede-decoding mv, hvor der har været forskelle i teknikken og hvilken der har være bedst og mest effektivt har været diskuteret.
Forskellen er ikke blevet større i dag for den generelle billedgengivelse i 2 og 3D, faktisk er det blevet endnu mere absurd at tale om forskelle. Der kan være minimale forskelle på lysstyrke eller f.eks beregning af skygge/lyseffekter, men dette er snarer beregningsforskelle end det er decideret forskel i billedkvalitet.
Sidste punkt er at man skal huske på at billedkvalitet varierer fra producent til producent selv med samme grafikchip - kortet er ikke bedre end det svageste komponent det bliver monteret med !