-> #10
Sekretær?! Du må da have spist søm... 😛
Det er nu ikke fordi at spilproducenterne går efter, at det skal køre bedre på det ene kort, frem for det andet. Sæt dig i deres sted. Hvis nu markedet var delt 50/50, mellem nVidia og ATi (inden for spil - lige for at lukke kæften på de første kloge-Åger), ville du - som spilproducent - så tænke: "Hey. Vi udelukker da lige halvdelen af vores potentielle kunder fra at køre spillet lige så godt på ATi, frem for nVidia..." - og dermed udelukke sig selv fra 50 % af den potentielle indkomst... Nej vel?!
Der er visse ting, som nVidia klarer bedre end ATi, sådan har det altid været. Men hvis forskellen ikke er over 5 %, plejer jeg at sige, fordi jeg kan ikke se en fucking skid forskel, at så er det ikke værd at hænge sig i. Selvfølgelig, så er der stor forskel på 100 FPS og 150 FPS. Selvfølgelig er det en forskel, men hvis man tror det skyldes et større syndikat, så ville jeg vove at kalde vedkommende for dummere end gennemsnittet.
Spillene kører så godt som de nu kan. Forestil dig at du sidder med en lommeregner. "Programmering" betyder nu, om du kan finde ud af at gange eller lægge sammen. Hvis nu du kun kan lægge sammen (addere), så vil det tage dig lang tid at finde facit på regnestykket "6 gange 6".
Hvis du kun kan addere, vil du gøre således:
6 + 6 + 6 + 6 + 6 + 6 = 36 -> 12 tastetryk (6x 6-taller, 5x '+' og 1x 'enter')
Hvis du kan gange, vil du gøre således:
6 * 6 = 36 -> 4 tastetryk (2x 6-taller, 1x '*' og 1x 'enter').
Vi snakker altså om en forskel på faktor 3x. Eller en forskel i "ydelse", på omkring 66 %.
Hvis nu vi oversætter "at kunne regne" til "at kunne programmere", så vil det blot betyde, at hvis du er en god og effektiv programmør, så kan du "gange" og hvis du er en gammeldags euklidsk-geometrisk programmør, så kan du kun "plusse".
Så det afhænger i større grad af programmørernes kunnen, frem for hvad grafikkortet kan. Uanset hvem du giver lommeregneren til, så vil det immervæk være den samme lommeregner. Altså det samme grundlag og - teoretisk set - samme regnekraft.
Selvfølgelig vil man kunne lave en "patch" der kunne lære dit grafikkort at "gange" i stedet for at "addere". Men som du sikkert kan huske fra folkeskolen, så var det ikke umiddelbart noget man lige lærte med det samme. Det er i bund og grund det samme der gør sig gældende når vi snakker programmering. Så jeg kan godt forstå din logik, men den er - på en måde - ret så ulogisk. I hvert fald hvis man ser det fra "mit" synspunkt.
-> #12
Det skyldes ene og alene det, at programmørerne kun har en specifik konfiguration at programmere ud fra. Hvis jeg gav dig en Ti83+, og du aldrig havde set sådan en før, så ville du nok sige "Pyha, det er mig for uoverskueligt. Giv mig min lommeregner fra Aldi til en 10'er".
Når programmørerne ved præcist hvilken maskinkode og ressourcer de har at gøre med, så kan de langt nemmere sige til programmet (i dette tilfælde, spillet): "Du behøver ikke at tegne de træer på den anden side af bakken. Spilleren kan alligevel ikke se dem" - så sparer man ressourcer, og kan derfor lave en pænere grafik.
Det dumme kommer så imidlertid ind, når så spillet skal konverteres til PC (hvilket jo i teorien ikke burde være nødvendigt når spillet er baseret på DirectX), så har vi jo pludselig en milliard forskellige konfigurationer. Forsk. CPU'er, grafikkort, mængde RAM, harddiske osv...
-> #17
Præcis 🙂
-> #19
Igen. Det er et spørgsmål om specifikationer. En lastbil burde i teorien vel være mere praktisk og et bedre køretøj, når blot en familie skal transporteres. Så ville en Suzuki Alto nok være et mere økonomisk og bedre alternativ. Så selvom en lastbil er bedre på "specifikationerne", så kan en lille Alto måske være det bedste for langt de fleste.
-> #22
Igen. Crysis har også mulighederne, men lægger kravene de forkerte steder.
-> #26
Learning, are we? 😉
-> #27
Hvis en GPU skulle lave hvad en CPU lavede, så ville Verden være et bedre sted. Alene grunden til at en CPU leverer færre FLOPS er vel, at der er en større database med indbygget maskinkode i en CPU. Det er der jo ikke i en GPU. Deraf navnet: "GP-GPU".
Nu snakker vi jo om grafik, CPU'er og FLOPS. Så hvorfor begynder du at blande tingene sammen. IPS har jo intet med FLOPS at gøre og er i øvrigt en helt anden arkitektur. Hvis vi skal til at name-droppe - kan jeg da bare sige "RISC", og hvor er vi så henne?
Det svarer til at sige flg.: "Ja jeg synes da også at fodbold er en interessant sport" - i en samtale om baseball?!