-> Alle
Rooolig nu 😉
-> #52
Der er jo lidt et todelt spørgsmål. Hvis filmen er lavet til 24 billeder i sekundet, eller FPS, så vil afspilning med 100 FPS gøre, at filmen bliver kørt hurtigere. Altså, som om man spolede i den med ca. 4x hastighed.
Omvendt, hvis filmen er lavet til 100 billeder i sekundet, vil man ikke kunne se forskel. Tag konsolspil som eksempel. De er jo oftest lavet sådan, at man kan afvikle dem ved bare 25 FPS (PAL standard), eller 60 FPS (HD standard). Så hvis man skal drage dén parallel, så "burde" man fint kunne spille "Crysis" ved blot 25 FPS, hvilket jeg ville mene også er tilfældet. Jeg kan i hvert fald kun se forskel i de to timedemo'er.
Såfremt 60+ FPS var et krav, så ville man jo ikke kunne afspille actionspil på konsoller med et alm. TV. Dertil tror jeg, at de fleste konsolejere ville erklære sig for værende uenige. Det er jo gået fint siden 90'erne, med at spille ved 25 FPS. Endsige tegnefilm som afspilles ved 24 billeder i sekundet.
Personligt har jeg det sådan, at hvis det ikke hakker, altså jeg kan se at computeren ikke kan følge med, så ville jeg mene det kører lige flydende ved 300 FPS eller 30 FPS. Jeg kan vitterligt ikke se forskel.
Derfor spiller jeg som regel også med Vsync slået til og ville i "bedste fald", aldrig opleve framerates på mere end opdateringshastigheden 🙂
Det kan til gengæld genere mig groft, hvis man kan se at billedet bliver delt. Det ser helt åndssvagt ud, men igen, det er bare min mening 😳