Jeg brokker mig ikke over Avivo, jeg synes det er et godt initiativ, men stiller spørgsmålstegn ved hvor meget der reelt er nyt og hvor meget man som forbruger kan mærke. Ligeledes er jeg ret sikker på, at nVidia vil køre H.264 decoding på chippen – ligesom vi tidligere har set med alle de krævende komprimeringsformater.
Jeg siger ej heller, at det er en fornuftig implementering af VTC (ingen af os har en chance for at lave en sådan vurdering), men du påstod at det var for langsomt til at blive implementeret i spil, og det har jeg et seriøst problem med, når det nu allerede er benyttet, modsat ATI's hack. At det er en ydelsesfølsom teknik i NV4x gør ikke, at ATI's løsning er den hurtigste. Det gør højest at benyttelsen heraf vil blive begrænset - som i færre spil vil benytte det, og de spil der gør vil begrænse brugen heraf.
Det er en standard feature i SM3.0, og Xenos understøtter den AFAIK (den har jo samme egenskaber om det er VS eller PS data). Det vil glæde mig, hvis ATI's hack vil blive benyttet, da flere brugere dermed kan få udnyttelse af de nye teknikker som kræver dette.
<i>"Btw. grunden til at man selv skulle aktivere GI på ATI kort var vel at MS ikke ville lade dem bruge funktionen standard på et SM2.0 kort?"</i>
Ja og så må vi se hvad der sker med deres VTF hack. MS laver ikke en update pga. en IHW har fundet en workaround - fra de færdiggøre specs må resten ligge i driveren. Om udviklerne så skal lave et hack i deres engine eller ATI udvikler deres drivere sådan, at udviklerne bare kan lave VTC kald og så bestemmer driveren hvordan det bliver udført må tiden vise, men indtil videre skal udviklerne selv lave et hack ligesom med GI og SM2.0
<i>"Så vidt jeg kan se er vi ikke uenige om at ATI's SM3.0 er bedre end nVidia's? Du mener bare ikke det kommer til at betyde noget, mens jeg mener det vil gøre en mærkbar forskel."</i>
Nej jeg mener det kommer til at betyde noget, men at dit skrækscenario ikke vil indfinde sig. Prøv at læse dine udtalelser og eksempler og overvej hvordan folk vil opfatte dem - det er den misforståelse de udtalelser skaber jeg har noget imod og er uenig i. Der kan ikke være tvivl om at ATI's chip umiddelbart virker mere fleksibel med de to fordele jeg beskrev:
1. ATI's er mindre ydelsesfølsom, dvs. udviklerne ikke skal være så varsomme med implementeringen
2. Loftet for hvor meget ekstra ydelse udviklerne kan hente heri er højere hos ATI.
Det jeg har imod er bare udtalelser som:
<i>"Ikke svært at forudse hvad der sker når vi får "ægte" SM3.0 spil på markedet...."</i>
Heri tager du nemlig ikke udviklerne i betragtning, og de friheder/begrænsninger de har - med andre ord hvordan de vil benytte disse features. De kan knække X1k kortets ydelse ligeså meget som NV4x ved at benytte f.eks. dynamic branching, men sådan virker gamet ikke. Derudover kan de ikke tage hele springet og gå helt amok med loops og flow control netop pga. R4xx serien og deres baseline.
<i>"Hvad baserer du forresten din mening om at "når næste generation kommer vil du kunne sige det samme om X1k serien, som du netop har gjort med X1k serien vs. NV4x serien på disse features."? Først og fremmest vil jeg ikke mene at flow control bliver meget bedre end i R5x"</i>
Først og fremmest var det en generel SM3.0 udtalelse, som du tog specifikt for flow control. Du glemmer ligeledes, at chippen bliver mere effektiv og ikke mindst hurtigere. Se evt. på R3xx vs. R4xx serien ang. shader spil og de features de har til fælles.
Jeg tror btw. du tager lidt fejl ang. det med baseline, og hvad jeg mente med den. Det første en udvikler gør er at definere minimums specs og hvilke kort der er på markedet når spillet kommer ud. Det er pt. R9800 som er baselinen (det gælder for SS2, UE3.0, Prey, fear osv.), og alt afhængig af spillet og timeframen vil nogle lave en SM1.1 fallback. SM3.0 er derimod hvad udviklerne sigter efter, men de udvikler ikke bare en SM3.0 engine og laver et SM2.0 fallback. SM2.0 vil være udviklernes baseline indtil DX10 kommer, og vil være understøttet et godt stykke derefter. De glæder sig røv meget til de bare kan skrotte SM2.0, men der gør et stykke tid før det er tilfældet.
<i>"Til slut vil jeg lige stille dette spørgsmål igen: Da X1800XL og 7800GT er rimeligt lige i pris, hvilket kort ville du vælge og hvorfor?"</i>
Det svar vil jeg af åbenlyse grunde godt vente med at give til vi har publiceret vores artikel omkring X1800XL (jeg overså btw. spørgsmålet første gang). Hvis du derimod havde spurgt til X1K-XT og 7800GTX, så vil jeg ikke mene vi har kortene på hånden til at kunne lave et sådan gæt, men jeg tror ATI kortet har større potentiale. Der er nogle lidt sjove resultater:
- 7800GTX vinder ofte i opløsninger over 1600x1200, men taber ligeså snart AA bliver slået til (døm selv om den massive RAM båndbrede fordel eller mængde betyder mest)
- X1800XT har i stort set alle spil en højere minimum framerate. Det sjove er her, at nVidia derimod har den højeste maks framerate. Sidstnævnte er ofte dikteret af CPU'en AFAIK, og de optimeringer vi så i FW81.82/81.84 ang. CPU'en vil også være at finde i Cat driverne når kortet kommer ud.
- Jeg deler dog ikke alle de der vilde forhåbninger til ATI's kommende drivere og har seriøst svært ved at tro deres drivere ikke er særlig modne. De benytter samme shader compiler som R4xx serien, og vil ikke hente noget her og udover de feature specifikke er det kun deres scheduler der i de store træk afviger fra den driver de benytter til R4xx. De har trods alt haft kort/chips siden december sidste år.
- En anden grund til at jeg er lidt imod alt det 7800GTX vs. et kort som ikke er frigivet, er at det ofte bliver bestemt af spil der ikke er på markedet. Det giver nogle spørgsmålstegn ved hvor sigende resultaterne er.
PS. hvis du først forventer R600 om et år, tror jeg du bliver positivt overrasket :)