-> #0
Som de andre er inde på, så er DVI (Digital Visual Interface) digitalt, og VGA, analogt.
Den umiddelbare forskel, for de fleste, er nok ikke til at se. Især ikke hvis man har en [undskyld mit fransk] billig skærm. Fordelen ved DVI, ud over den knap så åbenlyse kvalitet, er, at et "0" (som i "ingenting") på et digitalt signal, er et "0".
Derimod, hvis du kører med analog, så kan der være støj på linjen, og et "0" er måske "gråt". Lidt firkantet forklaret.
Den nemmeste måde at sige det på er, at VGA er lidt som component til dit fladskærms-TV, mens DVI er modsvaret "HDMi". Jeg kan - personligt - ikke se forskel dér. Men har du en god signalkilde og en god skærm, så er det ikke så svært at se forskel.
Jeg kan uden problemer se forskel på min egen skærm. Altså, om jeg kører med DVI eller VGA. Jeg kunne ikke se umiddelbar forskel på min gamle Acer AL1619W. Så det må være et spørgsmål om temperement.
En anden fordel er, at du kan styre konstrast, gamma og brightness - med ret stor precision - via computeren. Det kan du ikke med VGA. Så hvis du går (læs: her menes rigtig) meget op i billedkvalitet, så kør med DVI. Men har du en pisbillig skærm, så er det ikke sikkert du kan se forskel.
Om du kører med det ene eller det andet, kan i regelen være hip som hap 🙂