Hvordan kommer det til at se ud hvis vi ser lidt frem på de tv og desktop skærme som kommer?
Vi havde et spring i opløsning på tv og desktop skærme fra 720p til 1080p for nogle år tilbage og nu ser det ud til det er ved at skifte til 3840x2160 på tv og flere desktop skærme er ved at blive 2560x1440.
Bliver 2560x1440 sprunget over af mange producenter af desktop skærme og opløsning ryger op på 3840x2160 som på tv?
Mange gfx går kun til 2560x1600 og andre går op til 4096x2160 eller 4096x3112 så vil de mange max. 2560x1600 gfx holde en mere høj opløsning af desktop skærme tilbage?
Vil 4096x2160 og 4096x3112 gfx begge virker som de skal i 3840x2160 ?
Der må snart komme nogle meget høje krav til hw for et gamer system hvis opløsning ryger godt op. Gaming i 3840x2160 snakker vi så 6gb+ ram på gfx for det bliver godt?
Hvis man ser på de skærme man normalt bruger til desktop system som er ca. 30" og under og også tager nogle af de 13" ultrabook med vildt høj opløsning som mac og lenovo vil den høje opløsning kunne ses når skærm er så lille? Det giver vil bare sygt høje krav til hw og kan vil ikke rigtig bruges af andet end en grafiker?
Hele pointen med en så høje opløsning på en "lille" skærm er at man ikke skal kunne se de enkelte pixels. Så jeg tror ikke vi skal forvente højere opløsning på små skærme, men imtagt med at skærmen vokser i størrelse er jeg ret sikker på at opløsningen altid vil følge med så man undgår at få et pixeleret billede
Og mht opløsning fra et grafikkort så er det bare et parameter i en driver der bestemmer max opløsningen de fleste gange. Det betyder at producenten bare kan opdaterer deres drivere til at understøtte de højere opløsninger
#0 En højere pixel densitet på selv lav skærm størrelse giver meget skarpere teksturer.
Og mht opløsning fra et grafikkort så er det bare et parameter i en driver der bestemmer max opløsningen de fleste gange. Det betyder at producenten bare kan opdaterer deres drivere til at understøtte de højere opløsninger
Der er nu en hardware limitation på en del grafikkort. Ofte har der været forskel på max 2D og max 3D, men de er blevet 'højere' med årerne 🙂
Og der vil jeg mene det er "aspect ratio" som er mest relevant, her går 4:3 og 16:9 vist ind på vinderpladserne over dem som der er flest af. Det er også disse som vi har flest film tilgængelige i.
Det næste er så opløsning, der vil jeg mene at det er mængden af gammelt materiale(film, spil, billeder og alt muligt andet) som har størst effekt på hvilken opløsning som bliver mest populær næste gang. Så hvis størstedelen af materialet er lavet til 1080p, vil næste skridt være en fordobling, altså 4k.
Grunden til at jeg ikke tror på at opløsninger i mellem 1080p og 4k, er at der skal foretages en masse gæt(beregninger) for at presse pixels ud på dem. Alt som ikke er en fordobling kræver en hulens masse flere beregninger for at gætte sig til farven i de enkelte pixels.
Rent hardware-mæssigt tror jeg mest på at det er strømforbruget som sætter begrænsninger for nye skærme, nok ikke så meget TV, men absolut for desktop/mobile enheder hvor det ikke bare er visning af film, men mere baseret på beregninger. De nuværende enkeltkort med 300W brug er i forvejen noget høje, jeg tvivler lidt på at brugerne og producenterne vil blive ved med at presse det op.