Første danske kig på det nye Radeon X1800XT

Litteratur d.  06. oktober. 2005, skrevet af The Boss
Vist: 999 gange.

The
 
Chefredaktør
Tilføjet:
06-10-2005 10:27:09
Svar/Indlæg:
4741/1690
Kommentar til nyhed på: http://www.overclocking.dk/new...
Jaller
 
Elitebruger
Tilføjet:
06-10-2005 10:47:26
Svar/Indlæg:
657/18
nå men det ser jo godt UD :D

Så skal det bare i butikkerne så man kan få fat i det...

og nu ved vi jo at R580 er klar så lad os se det SNart TAK ;)



DEVIL_DK
 
Elitebruger
Tilføjet:
06-10-2005 11:01:44
Svar/Indlæg:
6531/410
nu må nvidia godt komme med den ultra de har liggende i skufferne med

512 mb
500 mhz core
1400 mhz mem

:e



Retro
 
Elitebruger
Tilføjet:
06-10-2005 12:38:19
Svar/Indlæg:
1643/172
Bare lad R580 komme for så udsender Nvidia G80 med det samme. Den er nemlig også klar. Den var vist færdig 1 mdr efter R580 var ifølge Vr-zone

R580 og G80 klar:
http://www.vr-zone.com/?i=2777...

Men Nvidia har vist valgt at holde ultra udgaven tilbage. Da de selv ikke var helt imporerde over ATI's nye serie af kort. Men regner med at Nvidia laver en hård pris krig der rammer ATI hård. F.eks. ved at sænke prisene på deres 7800 Serie af kort med 25% det ville ramme ATI hård for så skulle de sænke deres priser og dette ville medføre at de ikke kunne tjeane deres kort hjem. Som nvidia allerede har gjodt med 6 mdr på fuld pris uden at sende et mid rang kort i den nye serie på market. Men som realt kommer der altid nye GFX kort i April mdr og i september mdr. Og Nvidia er rimelig stabile på det punkt for sådan har det næsten været siden Geforce 3.



DTU_XaVier
 
Elitebruger
Tilføjet:
06-10-2005 12:51:04
Svar/Indlæg:
2786/120
#D_DK
Det er jo netop de 512mb RAM nVidia taber på...
Det er jo allerede vist, at AA og AF trækker mange RAM, og når man så i forvejen har "for lidt (:00), så "skal" der være en markant forskel... tror på, at nVidia hurtigst muligt smider et kort med 512mb på gaden, eller i det mindste sætter deres teknikere til at se på, om ydelsesforskellen kan findes der... :)

MVH.
Toke :)



Seballe
 
Superbruger
Tilføjet:
06-10-2005 15:35:47
Svar/Indlæg:
913/114
Jaaaaa, men uanset hvad så kommer vi til at vente. Det er nemlig kun ''tiden'' som kan brige os R580.

Men altså jeg synes eftr 4 måneders forsinkelse kunne X1800XT godt være lidt bedre. De kunne i det mindste godt have optimeret den lidt. Men jeg er da glad for at den faktisk SLÅR GTX i mange af spilne.



DTU_XaVier
 
Elitebruger
Tilføjet:
06-10-2005 17:32:41
Svar/Indlæg:
2786/120
#5 Vil da sige det er ganske imponerende... Men jeg fastholder mit synspunkt med, at det vinder på sine flere RAM, lige meget hvad der siges om, at flere RAM ikke giver mere ydelse... Tror det er lidt det samme, som den gamle snak med 128 vs 256... Det er kun i højere opløsninger med alt hvad der hedder eye-candy, men så begynder det altså også at kunne ses... ;)

MVH.
Toke :)



Nosferatu
 
Elitebruger
Tilføjet:
06-10-2005 21:12:17
Svar/Indlæg:
2029/63
lad os nu se kortet først før vi begynder at snakke om hvad det er værd.

Når det er på hylderne overvejer jeg hvadjeg skal have.



Advanced
 
Elitebruger
Tilføjet:
06-10-2005 21:28:58
Svar/Indlæg:
6899/119
#6

i 1600x1200 med alt guf sat til, så må man forvente at det kan udnytte mere end de 256mb...så.



Crucial-Kid
 
Superbruger
Tilføjet:
06-10-2005 22:35:33
Svar/Indlæg:
37/1
Angående RAM spørgsmålet, så er det hverken mere eller mindre kompliceret end det altid har været. Ekstra RAM kan ikke og vil ikke booste ydelsen, det eneste det kan er, at sørge for at ydelsen ikke dropper, når grafikkortet har brug for mere hukommelse.

Der skal en del mere til end bare 1600x1200 med 4xAA16xAF, og det er derfor ret spilafhængigt - nøjagtig ligesom det altid har været.

Det handler altså ikke, om kortet kan bruge så mange RAM, men om applikationen kan og om den gør det.

PS. G80 og R580 kommer <i>når</i> de er klar, og ikke et sekund før. Man kan så stille spørgsmålet, om G80 så er nVidia's første afløser til G70...



DEVIL_DK
 
Elitebruger
Tilføjet:
06-10-2005 22:51:43
Svar/Indlæg:
6531/410
alle snakker om 1600x1200 med alt guf sat , det er altsammen fint nok , men har de fleste efter hånden ikke skiftet til TFT skærme med en max på 1280x1024 ?

personligt tror jeg ikke jeg ville kunne mærke den store forskeld på mit kort og et med 512mb pånær lige i f.e.a.r som åbenbart er et spil de ikke vil sælge mange af da det kun kan køre på yper super duper maskiner.



-Timberwolf-
 
Superbruger
Tilføjet:
06-10-2005 23:25:43
Svar/Indlæg:
421/13
Hvis man kører i små opløsninger, som på en del TFT's, er både NVidia og ATi vel CPU begrænsede. Og så er der ingen grund til at købe NVidia med mindre ATi kortene måske trækker 1 Gigawatt eller/og at de bliver mega varme. ;)

http://www.hardware-test.dk/oc...

Læs "27. Kommentar".

Desuden er F.E.A.R. ikke så krævende IMO. 3 år gamle maskiner kører det da også glimrende! Men ok, topgejl grafik kræver da altid meget. Desuden køber man da ikke et spil 100% UDELUKKENDE pga. at det har god grafik.



Zalam
 
Elitebruger
Tilføjet:
07-10-2005 08:40:46
Svar/Indlæg:
1015/85
#11

hvis 10-15 fps er glimrende kører 3 år gamle maskiner det måske godt nok :00



Millum
 
Elitebruger
Tilføjet:
07-10-2005 09:29:38
Svar/Indlæg:
345/45
Jeg syntes nu det nye ati kort ser ganske lovende ud.Husk lige på det kun har 16pipes kontra 24 på gtx.Mon ikke der kunne komme et x1800xtpe med 20/24pipes.SÅ ser det hele jo lidt anderledes ud igen.

Nu er ati med ligesom nvidia med både gfxkort og bundkort.Ati bunkortne ser jo meget lovende ud syntes jeg,ydelses messigt og oc potentiale.
Men ja de er sku lidt sent på den med de nye kort,men nu har de jo lavet det hele klar med hdr og kort med 512mb ram,så mon ikke de 20/24/32 pipes liepludselig er der.



#14
Kiwi
 
Overclocker
Tilføjet:
08-10-2005 10:58:31
Svar/Indlæg:
93/0
Det store sprøgsmål angående R5xx vs G7x, er SM3.0. Hvis spillene udnytter flow control og dynamic branching , kunne man teoretisk set risikere en del forskel på disse to arkitekturer . Så vidt jeg er informeret er der meget høj sandsynlighed for at det bliver udnyttet i fremtiden, ivhertfald er der ingen grund til at lave SM3.0 spil uden disse funktioner. Det kan i den forbindelse nævnes at G7x's tråde er mindre end NV4x's hvilket i teorien vil gøre flow control nemmere, dog er den på papiret stadig ikke nær så effektiv som R5xx. Men at nVidia bruger kræfter på at forbedre flow control, tyder kraftigt på at de forventer det bliver en meget brugt feature.
Det bliver meget interessant at se tests af Oblivion (udgivelse 25 november her i europa), med den grafik og fuld udnyttelse af SM3.0 burde det give et godt billede af fremtiden for de to arkitekturer.
Personligt har jeg forudbestilt en Xbox360 og Oblivion, og jeg forventer den vil kunne holde mig beskæftiget indtil Vista (G80/R600).



Crucial-Kid
 
Superbruger
Tilføjet:
08-10-2005 15:45:14
Svar/Indlæg:
37/1
Kiwi hvis jeg må være så fræk, og tage nogle udtalelser ud fra OC.dk's oprindelige X1k nyhed, så er jeg langtfra enig i nogle af dine betragtninger ang. G70 vs. R5xx:

"Udover det har vi AVIVO som virker noget bedre ebd nVidia's PureVideo. Bla. er der H.264 hardware acceleration"
- http://www.hardware-test.dk/oc...

1. Det lyder utrolig meget til, at du har dannet dig et billede af Avivo vs. PV ud fra den ATI PR oversigt der har floreret de sidste par uger. Den er i sagens natur ret misvissende, og nVidia har sjovt nok en lignende, som viser hvor overlegne de er (ingen af dem har naturligvis ret). Du kunne f.eks. smutte ind på Anand og tjekke forsiden, så ville du nok finde en test der sætter ATI's PR slide lidt i perspektiv.

2. H.264 hardware acceleration? Det er en driver feature, og det svarer til at mene nVidia's kort er bedre pt. pga. deres (beta) "Dual core understøttelse", hvor deres driver offloader CPU'en samt deler opgaverne op i flere tråde. nVidia får også H.264 understøttelse, og det har vi vidst i et godt stykke tid - ligesom ATI kommer med en lignende "dual core" driver.

Du nævner ligeledes flow control og stiller lidt vovet spørgsmålet om X1k serien ikke er den første rigtige SM3.0 chip i selv samme tråd. Det er dog følgende sætning jeg har størst problem med, da du så vidt jeg kan læse bygger din holdning på en lidt sjov forestilling om kommende spil og hvordan features bliver implementeret i spil.

"Når flow control aktiveres MISTER 7800GTX rent faktisk ydelse, mens X1800XT vinder over 80%! Ikke svært at forudse hvad der sker når vi får "ægte" SM3.0 spil på markedet...."
- http://www.tweakup.dk/readmore... (#23)

"Spørgsmålet er så om programmørerne vil udnytte flow control / dynamic branching når nVidia's kort tydeligvis ikke fungerer optimalt med det?"
- http://www.hardware-test.dk/oc...

ATI understøtter ikke vertex texture fetching, som ellers er en standard SM3.0 feature og er at finde i NV4x serien. Det vil koste dem lidt ydelse, men vigtigst af alt: udviklerne skal være opmærksomme på dette.

Betyder dette, at ligeså snart "rigtige SM3.0 spil" kommer frem vil ATI have et problem? Nej på ingen måde, men det betyder at udviklerne bliver nød til at være opmærksomme på dette, hvis de kommer ud i situationer der kræver at VS enhederne skal bruge texture data fra hukommelsen.

Noget lignende er gældende for flow control. Du fremstiller flow control som en enten eller situation. Situationen er den, at nVidia er langt mere ydelsesfølsom for brugen af flow control. Det betyder ikke, at spil der understøtter flow control yder dårligere på nVIdia kort, det betyder bare at udviklerne skal være meget mere varsomme med brugen heraf.

Der går stadig et godt stykke tid til SM3.0 er udviklernes baseline for udviklingen, og dermed til at udviklerne kun skriver til SM3.0 HW. Så længe de skal udvikle til SM2.0 HW, vil de kigge på X1k serien for sig og NV4x serien for sig, så de ikke bare skal render en samlet størrelse. Dermed er det skrækscenario du fremstiller med flow control ikke relevant, og udviklerne vil bruge flow control hvor det giver mening og ikke mindst i det omfang der giver mening. Samme gælder dynamic branching, som har mange af de samme karakteristika, hvad angår brugbarheden på nuværrende GPU'er og hvorfor udviklerne gerne vil benytte det.

Når næste generation kommer, så vil du også kunne lave kode med flow control, som får X1k serien til at se ligeså dårlig ud, og så kan du igen stille spørgsmålet "om programmørerne vil udnytte flow control / dynamic branching når kort x (EDIT) tydeligvis ikke fungerer optimalt med det?" eller bare indse, at sådan fungere det ikke.



-Timberwolf-
 
Superbruger
Tilføjet:
08-10-2005 22:29:51
Svar/Indlæg:
421/13
#12 Et stock TI4400 er mere end "bare" spilbart i F.E.A.R.


#17
Kiwi
 
Overclocker
Tilføjet:
09-10-2005 14:08:36
Svar/Indlæg:
93/0
1. Jeg må indrømme at jeg ikke interesserer mig ret meget for AVIVO, hvilket også var grunden til at jeg skrev "virker til". Jeg holder dog fast på at potentialet virker større i AVIVO.

2. H.264 er ikke en driver feature på ATI's nye r5xx kort, de har indbygget support for det i hardware. Det bliver derimod driver baseret hos nVidia, Pure Video er ikke fra starten bygget til at kunne accelerere H.264.

Vertex texture fetching er ikke krævet i SM3.0, hvis det var ville ATI ikke kunne kalde deres kort for SM3.0 kompitable uden at få store problemer med MS. Desuden er denne feature eller ikke videre godt implementeret på nVidia's nuværende kort, så vidt jeg er informeret er der ret så ekstrem latency hvis man forsøger at bruge at bruge det (hvilket vil sige du mister mere hastighed end du vinder i de fleste tilfælde). Så vi sidder med en på "papiret understøttelse" fra nVidia, som er for langsom til at den nogensinde vil blive brugt. Så rent umiddelbart vil manglende support for denne feature ikke betyde noget for ATI, da nVidia implementation af det vil afholde programmører fra at bruge funktionen.

Flow control er en feature der gør at programmører kan dele deres kode op i små bidder, som så kan kaldes efter behov. Dvs. det er ikke kun en ydelses booster, den vil også gøre det nemmere at kode. Jeg tror stadig på at spiludviklere der bruger SM3.0 som baseline, vil implementere fuld flow control for at gøre det nemmere for dem selv. En anden ting man skal tage i betragtning er eventuelle ports fra Xbox 360, så vidt jeg er informeret vil der være fuld flow control i disse spil. Så jeg tror ikke på der vil gå så længe før du ser spil med SM3.0 som baseline, og hvor hardware implementeringen vil gøre en forskel.

Faktum er at vertex texture fetching, dynamic branching og flow control ikke fungerer efter hensigten på NV4x og G7x. Når nu X1800XL og 7800GT er rimelig lige i ydelse og pris, men X1800XL har yderst velfungerende SM3.0 (hvilket nemt kan gøre en forskel i spil som Oblivion, Allan Wake m.fl.), hvilket kort vil du så anbefale?

Btw:

Citat: Når næste generation kommer, så vil du også kunne lave kode med flow control, som får X1k serien til at se ligeså dårlig ud.

Tror du selv på at blokke under 16 pixels vil blive aktuelt?



Crucial-Kid
 
Superbruger
Tilføjet:
09-10-2005 21:19:37
Svar/Indlæg:
37/1
"H.264 er ikke en driver feature på ATI's nye r5xx kort, de har indbygget support for det i hardware. Det bliver derimod driver baseret hos nVidia, Pure Video er ikke fra starten bygget til at kunne accelerere H.264."

Det er jo ren ATI PR det der. Begge vil benytte deres VPU'ers ekstreme regnekraft til at decode signalet. Det er muligt ATI har en lidt bedre chip til dette, men begge vil udnytte deres VPU's regnekraft til dette. Sådan fungere det pt. med eksisterende komprimeringsformater og sådan vil det også være med H.264.

"Så vi sidder med en på "papiret understøttelse" fra nVidia, som er for langsom til at den nogensinde vil blive brugt. Så rent umiddelbart vil manglende support for denne feature ikke betyde noget for ATI, da nVidia implementation af det vil afholde programmører fra at bruge funktionen."

For langsom til at blive brugt siger du? Hmm det lyder underligt eftersom det faktisk bliver brugt i et spil allerede, hvilket vi ikke kan sige om ATI's hack.

Hvis du skal kunne udnytte nogle af de samme features som kræver vertex texture fetching, så bliver du som udvikler nød til at lave et specielt hack, som vel og mærke ikke står nogle steder i D3D's specs eller er brugt pt. Man kan så stille spørgsmålet om dette hack har held til at blive mere brugt end ATI's geometry intancing hack, som af samme grunde aldrig blev til mere end support fra FarCry og vel og mærke i en form hvor folk SELV skal enable det i konsollen for at udnytte det (måske en af de to vil blive ændret med FarCry patch 1.4?).

"Jeg tror stadig på at spiludviklere der bruger SM3.0 som baseline, vil implementere fuld flow control for at gøre det nemmere for dem selv."

"Faktum er at vertex texture fetching, dynamic branching og flow control ikke fungerer efter hensigten på NV4x og G7x."


1. Selv UE3.0 har SM2.0 som baseline (R9800), og der går rigtig lang tid før SM3.0 er baseline. Det sker først et stykke efter DX10 kommer. Det er først i år udviklerne er begyndt at have SM2.0 som baseline og ikke tage ældre kort med før til sidst i udviklingsfasen, hvor de overvejer et eventuel fallback.

2. Der er ikke noget der hedder "fuld flow control" - det er ikke en enten eller situation. Egenskaber vil kun blive brugt i den udstrækning det giver mening, og så længe SM2.0 er baseline vil det scenario du beskriver ikke indfinde sig.

3. Det er ligeledes en PR opfattelse at en feature ikke fungerer efter hensigten. Den sidste pointe i ovenstående indlæg var netop, at du definerer "fungere efter hensigten" som den der har den bedste implementering. Sådan ser en udvikler ikke på det, og de har ikke den frihed du antyder de har. De kan ikke udnytte disse features i en udstrækning, der ville ødelægge ydelsen på NV4x serien, ligesom de ikke har, kunne tillade sig at gøre det tidligere og ladet R4xx ligge hen i støvet. Det vi kan sige om disse features er:

- ATI's er mindre ydelsesfølsom, men når næste generation kommer vil du kunne sige det samme om X1k serien, som du netop har gjort med X1k serien vs. NV4x serien på disse features.
- Loftet for hvor meget ekstra ydelse udviklerne kan hente heri er højere hos ATI.

ShaderMark og McDolens Fill rate tester viser dette, men de siger ikke noget om resultatet i spil, eller hvordan (hvor meget) udviklerne vælger at benytte dette i deres spil. Dynamic branching, flow control osv. er ikke nye wonderpills, som gør alt hurtigere eller nemmere. De skal stadig bruges med forsigtighed (også på R5xx), men ikke mindst pga. NV4x.



#19
Kiwi
 
Overclocker
Tilføjet:
09-10-2005 23:51:40
Svar/Indlæg:
93/0
Du har en yderst speciel opfattelse af hardware understøttelse. Hvis en chip er bygget med henblik på en specifik opgave, vil langt de fleste betragte det som hardware understøttelse. AVIVO har en del af chippen specielt bygget med henblik på H.264 acceleration, hvilket purevideo ikke har, så hvad brokker du dig over?

Må jeg gerne spørge om hvorfor det at Pacific Fighters bruger dynamic branching, vertex texture fetching og flow control, gør det til en god, hurtig og fornuftig implementering? Læs nVidia's white papers omkring vertex texture fetching (også om flow control og dynamic branching for den sags skyld), så vil du se hvor begrænset deres implementering er. Det skulle ikke undre mig andet end at nVidia også vil bruge deres pixel shadere til denne funktion i fremtiden. Ihvertfald tror jeg ikke på funktionen i dens nuværende form vil blive brugt.

Btw. grunden til at man selv skulle aktivere GI på ATI kort var vel at MS ikke ville lade dem bruge funktionen standard på et SM2.0 kort? Siden vertex texture fetching ikke er påkrævet i SM3.0, vil ATI ikke have nogen problemer med at implementere en backdoor i driveren og have den aktiv konstant. Btw. er GI blevet brugt i andre spil på nVidia hardware?

Så vidt jeg ved er UE3.0 programmeret med SM3.0 som baseline, med mulighed SM2.0 fallback. Under alle omstændigheder er jeg 100% sikker på at Tim sagde at alle features i SM3.0 ville være fuldt understøttet.

Udvikles spil ikke på den måde at man laver en basis (i f.eks. SM1.1), og så "udvider" denne til diverse platforme (konsoller, andre SM's og diverse specifikke produkter)? Hvis spillene er programmeret med SM3.0 som basis (hvilket alle Xbox360 spil sikkert vil være) vil flow control højst sandsynligt findes overalt i koden som standard, som sagt er det en funktion der også gør arbejdet nemmere for programmøren. Du har da helt ret i at så længe SM2.0 er baseline vil programmører kun besvære sig med at smide flow control på de steder hvor både ATI og nVidia kan bruge det, men hvorfor tror du at SM2.0 vil være baseline meget længere endnu? Tendensen peger tværtimod i retning af at SM2.0 springes over og der gåes direkte til SM3.0, faktisk er det meget få spil der har SM2.0 som baseline på nuværende tidspunkt og der virker til at være masser af SM3.0 spil i udvikling.

Så vidt jeg kan se er vi ikke uenige om at ATI's SM3.0 er bedre end nVidia's? Du mener bare ikke det kommer til at betyde noget, mens jeg mener det vil gøre en mærkbar forskel. Lad mig lige stille dig nogle spørgsmål: Hvem tror du der ved mest om hvordan fremtidens spil bliver, os eller ATI? Ville de bruge så mange transistorer på en arktitektur der ikke ville blive udnyttet inden for en nær fremtid (de antyder selv at R600 er der om ca. et år)? Ville nVidia gå fra 4096 til 1024 i blokstørrelse hvis de mente flow control ikke ville blive brugt?

Hvad baserer du forresten din mening om at "når næste generation kommer vil du kunne sige det samme om X1k serien, som du netop har gjort med X1k serien vs. NV4x serien på disse features."? Først og fremmest vil jeg ikke mene at flow control bliver meget bedre end i R5xx, det kan vist ikke gøres meget bedre end en blokstørrelse på 16 kombineret med et avanceret hukommelses system. For det andet skal R5xx vel sammenlignes med G70? Ihvertfald er det ikke særlig lang tid siden at nVidia fik patent på teknikker der minder om dem ATI bruger på R5xx til flow control, så jeg vil ikke forvente en ny implementering fra dem lige med det samme.

Som en lille sidebemærkning: NV30 havde en ikke særlig optimal implementering af SM2.0, gjorde det at spilproducenter lavede deres SM2.0 path så den passede til FX serien?

Til slut vil jeg lige stille dette spørgsmål igen: Da X1800XL og 7800GT er rimeligt lige i pris, hvilket kort ville du vælge og hvorfor?

Personligt glæder jeg mig til Oblivion, hvis R5xx har nogle fordele i avancerede spil vil vi helt sikkert se dem der.



Crucial-Kid
 
Superbruger
Tilføjet:
10-10-2005 14:44:16
Svar/Indlæg:
37/1
Jeg brokker mig ikke over Avivo, jeg synes det er et godt initiativ, men stiller spørgsmålstegn ved hvor meget der reelt er nyt og hvor meget man som forbruger kan mærke. Ligeledes er jeg ret sikker på, at nVidia vil køre H.264 decoding på chippen &#8211; ligesom vi tidligere har set med alle de krævende komprimeringsformater.

Jeg siger ej heller, at det er en fornuftig implementering af VTC (ingen af os har en chance for at lave en sådan vurdering), men du påstod at det var for langsomt til at blive implementeret i spil, og det har jeg et seriøst problem med, når det nu allerede er benyttet, modsat ATI's hack. At det er en ydelsesfølsom teknik i NV4x gør ikke, at ATI's løsning er den hurtigste. Det gør højest at benyttelsen heraf vil blive begrænset - som i færre spil vil benytte det, og de spil der gør vil begrænse brugen heraf.

Det er en standard feature i SM3.0, og Xenos understøtter den AFAIK (den har jo samme egenskaber om det er VS eller PS data). Det vil glæde mig, hvis ATI's hack vil blive benyttet, da flere brugere dermed kan få udnyttelse af de nye teknikker som kræver dette.

<i>"Btw. grunden til at man selv skulle aktivere GI på ATI kort var vel at MS ikke ville lade dem bruge funktionen standard på et SM2.0 kort?"</i>

Ja og så må vi se hvad der sker med deres VTF hack. MS laver ikke en update pga. en IHW har fundet en workaround - fra de færdiggøre specs må resten ligge i driveren. Om udviklerne så skal lave et hack i deres engine eller ATI udvikler deres drivere sådan, at udviklerne bare kan lave VTC kald og så bestemmer driveren hvordan det bliver udført må tiden vise, men indtil videre skal udviklerne selv lave et hack ligesom med GI og SM2.0

<i>"Så vidt jeg kan se er vi ikke uenige om at ATI's SM3.0 er bedre end nVidia's? Du mener bare ikke det kommer til at betyde noget, mens jeg mener det vil gøre en mærkbar forskel."</i>

Nej jeg mener det kommer til at betyde noget, men at dit skrækscenario ikke vil indfinde sig. Prøv at læse dine udtalelser og eksempler og overvej hvordan folk vil opfatte dem - det er den misforståelse de udtalelser skaber jeg har noget imod og er uenig i. Der kan ikke være tvivl om at ATI's chip umiddelbart virker mere fleksibel med de to fordele jeg beskrev:

1. ATI's er mindre ydelsesfølsom, dvs. udviklerne ikke skal være så varsomme med implementeringen
2. Loftet for hvor meget ekstra ydelse udviklerne kan hente heri er højere hos ATI.

Det jeg har imod er bare udtalelser som:

<i>"Ikke svært at forudse hvad der sker når vi får "ægte" SM3.0 spil på markedet...."</i>

Heri tager du nemlig ikke udviklerne i betragtning, og de friheder/begrænsninger de har - med andre ord hvordan de vil benytte disse features. De kan knække X1k kortets ydelse ligeså meget som NV4x ved at benytte f.eks. dynamic branching, men sådan virker gamet ikke. Derudover kan de ikke tage hele springet og gå helt amok med loops og flow control netop pga. R4xx serien og deres baseline.

<i>"Hvad baserer du forresten din mening om at "når næste generation kommer vil du kunne sige det samme om X1k serien, som du netop har gjort med X1k serien vs. NV4x serien på disse features."? Først og fremmest vil jeg ikke mene at flow control bliver meget bedre end i R5x"</i>

Først og fremmest var det en generel SM3.0 udtalelse, som du tog specifikt for flow control. Du glemmer ligeledes, at chippen bliver mere effektiv og ikke mindst hurtigere. Se evt. på R3xx vs. R4xx serien ang. shader spil og de features de har til fælles.

Jeg tror btw. du tager lidt fejl ang. det med baseline, og hvad jeg mente med den. Det første en udvikler gør er at definere minimums specs og hvilke kort der er på markedet når spillet kommer ud. Det er pt. R9800 som er baselinen (det gælder for SS2, UE3.0, Prey, fear osv.), og alt afhængig af spillet og timeframen vil nogle lave en SM1.1 fallback. SM3.0 er derimod hvad udviklerne sigter efter, men de udvikler ikke bare en SM3.0 engine og laver et SM2.0 fallback. SM2.0 vil være udviklernes baseline indtil DX10 kommer, og vil være understøttet et godt stykke derefter. De glæder sig røv meget til de bare kan skrotte SM2.0, men der gør et stykke tid før det er tilfældet.

<i>"Til slut vil jeg lige stille dette spørgsmål igen: Da X1800XL og 7800GT er rimeligt lige i pris, hvilket kort ville du vælge og hvorfor?"</i>

Det svar vil jeg af åbenlyse grunde godt vente med at give til vi har publiceret vores artikel omkring X1800XL (jeg overså btw. spørgsmålet første gang). Hvis du derimod havde spurgt til X1K-XT og 7800GTX, så vil jeg ikke mene vi har kortene på hånden til at kunne lave et sådan gæt, men jeg tror ATI kortet har større potentiale. Der er nogle lidt sjove resultater:

- 7800GTX vinder ofte i opløsninger over 1600x1200, men taber ligeså snart AA bliver slået til (døm selv om den massive RAM båndbrede fordel eller mængde betyder mest)
- X1800XT har i stort set alle spil en højere minimum framerate. Det sjove er her, at nVidia derimod har den højeste maks framerate. Sidstnævnte er ofte dikteret af CPU'en AFAIK, og de optimeringer vi så i FW81.82/81.84 ang. CPU'en vil også være at finde i Cat driverne når kortet kommer ud.
- Jeg deler dog ikke alle de der vilde forhåbninger til ATI's kommende drivere og har seriøst svært ved at tro deres drivere ikke er særlig modne. De benytter samme shader compiler som R4xx serien, og vil ikke hente noget her og udover de feature specifikke er det kun deres scheduler der i de store træk afviger fra den driver de benytter til R4xx. De har trods alt haft kort/chips siden december sidste år.
- En anden grund til at jeg er lidt imod alt det 7800GTX vs. et kort som ikke er frigivet, er at det ofte bliver bestemt af spil der ikke er på markedet. Det giver nogle spørgsmålstegn ved hvor sigende resultaterne er.

PS. hvis du først forventer R600 om et år, tror jeg du bliver positivt overrasket :)



#21
Kiwi
 
Overclocker
Tilføjet:
10-10-2005 17:38:11
Svar/Indlæg:
93/0
Jeg er så ikke enig om at man ikke kan vudere om nVidia's VTC er fornuftigt implementeret, de understøtter kun 2D / 1D maps, der skal bruges FP32 textures i underlige integer formater og der er ingen filtrering. Det kan næppe kaldes en fornuftig og brugbar implementering. At den er brugt (begrænset) i et enkelt spil kan du jo så vælge at se som et argument for at funktionen reelt er brugbar i vid udstrækning, men i min bog er det tæt på bare at være en tech demo. At det er en standard i SM3.0 kan også diskuteres. Nogle mener at ATI har "snydt" men da MS ikke har nogen indsigelser, vil jeg ikke mene det er reelt at sige at "R5xx mangler en vigtig påkrævet SM3.0 funktion". Mht. om C1 understøtter VTC, det gør den da (i den forbindelse lyder MEMEXPORT ret imponerende), men den har ikke de begrænsninger som nVidia's nuværende implementation lider af.

Vi har stadig yderst divagerende meninger omkring programmører og deres syn på SM3.0. Men lad os lade det ligge og se det fra en anden vinkel: Man kan ikke undgå at blive imponeret over grafikken i Xbox360 spil som PGR3, GoW, Oblivion osv., men hvordan i alverden vil du lave lignende grafik på PC uden omfattende brug af optimerings funktioner i stil med flow control og dynamic branching? Hvis du kigger på FEAR som pt. er noget af det flotteste på PC, er det lavet i SM2.0 og der skal en virkelig heftig maskine til at køre det med alle detaljer til. Min pointe er at vi med de nye konsoller er på vej mod en ny æra mht. den grafiske kvalitet i spil, hvordan skal pc kunne følge med hvis de (efter dine udtalelser) vil være bundet til SM2.0 med få SM3.0 overbygninger i lang tid frem? Selvom der måske kommer endnu kraftigere grafikkort vil et enkelt af disse stadig koste mere end hvad en komplet X360 koster. En high end pc til at game FEAR i en god opløsning kommer nemt over 10.000.-, mens en X360 kun koster 3200.- og der får du grafik som er flottere end noget som PC'en pt kan præstere (GoW er efter min mening en hel del flottere end FEAR).
Så fik du lige endnu et "skrækscenarie" ;) Men seriøst, jeg kommer til at give 3199.- + 499.- for at game Oblivion. Nu har vi ikke spillet til PC endnu så man kan ikke sige noget endegyldigt, men jeg tror nok du vil give mig ret i at 7800GTX / X1800XT bestemt ikke virker som overkill til at rendere de screenshots vi har set fra Xbox360 versionen. Så vil PC spil ikke stå temmelig svagt hvis de ikke får SM3.0 forholdsvis hurtigt?



Crucial-Kid
 
Superbruger
Tilføjet:
10-10-2005 21:10:15
Svar/Indlæg:
37/1
"At det er en standard i SM3.0 kan også diskuteres."

At det står som en del af SM3.0 specs gør det per definition til en del af standarden. At du så ikke mener den er så brugbar endnu er en anden sag.

<i>"Vi har stadig yderst divagerende meninger omkring programmører og deres syn på SM3.0.</i>

På trods af ovenstående indlæg, så tror jeg faktisk ikke det er tilfældet. Forskellen ligger i vores forskellige opfattelser af de valgmuligheder de har og hvordan gamet fungere. Udviklerne vil juble af glæde og komme i deres bukser den dag de kan glemme alt om SM2.0, ekstremt lange og komplicerede shader funktioner osv., men de har ikke de friheder du giver dem. De er bundet af de SM2.0 kort der er på markedet, og det vil de være et godt stykke tid endnu, men efter ATI også snart har top til bund SM3.0 vil de i højere grad kunne tage udgangspunkt i SM3.0.

<i>"Nogle mener at ATI har "snydt" men da MS ikke har nogen indsigelser"</i>

Ja men hvis man mener de har snydt, så skal man vist hedde Kyle eller Brent samt være fanatisk og uden nogen form for nuancer eller realitetsfornemmelse. Worse case er at det aldrig bliver brugt og ingen har mistet noget på den konto udover et par udviklere og ATI. Det sker næppe.

Hmm konsol snak. Ja nu afskyer jeg rimelig meget konsoller, men din vinkel kan vist gå an. Jeg forstår dog ikke helt din kobling imellem feature snakken ved R5xx kontra NV4x og så mulighederne i en lukket platform. Du skriver selv den korrekte konklusion imellem linierne, konsollen vil være grafisk foran, men du forudsætter igen at SM2.0 bare kan laves til sidst som en fallback og at min opfattelse forudsætter at SM3.0 ikke bliver særlig udbredt.

<i>&#8221;men hvordan i alverden vil du lave lignende grafik på PC uden omfattende brug af optimerings funktioner i stil med flow control og dynamic branching?&#8221;</i>

Det kan PC&#8217;en ikke, ligesom den aldrig har på kort sigt. Konsoller har per definition en langt bedre udnyttelse af de features og ressourcer der er til rådighed. Det har de altid haft, og det vil de altid have - så længe de forbliver en lukket standard. Der er som sådan intet der har ændret sig.

Det kommer af det simple faktum, at udviklerne kun skal udvikle deres game engines og spil til en profil. Der er nogle små besparelser i OS, driver kompleksiteten osv., men den altafgørende faktor er, at der kun findes et sæt features, en profil og du kun skal arbejde med denne. Du skal ikke tage hensyn til, at en løsning dur til flere forskellige maskiner. Løber du ind i et specifikt problem, så fixer du det til den HW profil og er røv ligeglad med om det ikke passer ind i en anden HW profil.

Jeg siger dog ikke at SM3.0 bare bliver brugt som en overbygninger af SM2.0 kode for udviklerne, eller at de ikke kan benytte nye features, men udviklerne skal stadig kode til SM2.0 og have det med i bagtankerne det næste år. De kan ikke bare sige drøne derudaf pga. den ene IHW tilbyder nogle overlegne teknikker, de bliver hæmmet af den anden IHW's muligheder. De vil i højere og højere grad tage udgangspunkt i SM3.0, men de er så meget mere begrænset end konsol udviklerne er (det siger jo sig selv når der er flere standarder de skal tage hensyn til).

Et eksempel på forskellen fra et konsol spil til et PC spil kunne være Doom III til XBOX. Det er skrevet med udgangspunkt i GF3 og XBOX&#8217;en. På PC'en skulle man have en rimelig ok computer for at køre det, men med ganske få ændringer i detalje graden og opløsningsfordelen for konsollen, så kunne den køres på en konsol med en 733 MHz Celeron og et GF3 grafikkort. Det vil nok pæneste spil på markedet, FarCry, benytter ligeledes primært SM1.1 til de fleste effekter - det siger lidt om potentialet og det at lave PC spil.

De kommende konsolspil vil overgå det grafiske niveau på PC'en i hele 2006. Ingen af de PC spil der udkommer, har den luksus at kunne være skrevet til den bedste af den bedste maskine. PC spil skal skrives til forskellige profiler, med udgangspunkt i en gennemsnits computer og mulighed for lidt ekstra eye candy til folk med nyt HW.

Ja vi kan vist godt glæde os til DX10, hvor vi i højere grad vil se at ATI og nVidia bliver bundet spec wise, og brugen af hacks vil blive begrænset.



#23
Kiwi
 
Overclocker
Tilføjet:
11-10-2005 11:29:44
Svar/Indlæg:
93/0
Faktisk opfylder R5xx de krævede VTC specs, driverens caps siger du kan bruge point filter til VTC. Problemet er bare at det er den eneste (software) understøttede del af VTC, så reelt er det ubrugeligt. Men alligevel opfylder ATI alle kravene i SDK, og kan dermed kalde deres kort for fuldt SM3.0 kompitable. Dvs. reelt set har ATI brug en fejl formulering til at "slippe af med" hardware understøttelse af VTC. Så jeg kan godt forstå at folk (og nVidia) brokker sig. Men for mig er der ikke meget forskel på at udelade VTC, og så at lave en begrænset understøttelse som nVidia har.

Mht. til dine argumenter omkring programmering er jeg helt enig, spiludviklere på PC har en mængde hardware profiler at tage hensyn til. Dog mener jeg ikke at konsol programmering er så lukket som du gør det til. Mange spil bliver udviklet til både Xbox360, PS3, Revolution og PC, hvilket mere eller mindre gør SM3.0 til et naturligt valg som den primære hardware profil. Om flow control vil blive brugt i vid udstrækning kommer nok an på den primære platform (der er rygter om at PS3 programmører bliver anbefalet at styre uden om FC), men for mig at se vil spil i fremtiden primært understøtte SM1.1 / 3.0 måske med visse specifikke SM2.0 features på PC. Selvom folk nok vil argumentere for at SM2.0 kort (deriblandt mit eget R420) er en stor del af markedet, gælder dette kun for PC siden. Ligegyldigt om vi kan lide det eller ej spiller konsoller en meget stor rolle i hvilke hardware profiler der vil blive understøttet.

Min primære grund til at hive konsoller ind i diskusionen har jeg dog allerede nævnt: Hvorfor give over 10.000.- for en PC når du kan få en konsol til 3200.- der tæsker den visuelt? Når vi sidder her og diskuterer er det vel for at finde ud af om det kan betale sig at købe et kort der yder lidt mindre i nuværende spil (X1800XL vs 7800GT), men har bedre support for fremtidig teknik? Er der overhovedet nogen grund til det hvis en hel maskine (der koster mindre end et af ovenstående grafikkort) vil være bedre et helt år frem?

Det er klart at når man udgiver et spil på PC skal det tilpasses mange forskellige hardware profiler, men det virker for mig som om du smider hele ansvaret over på spiludviklerne? Man ser dog tit eksempler på at hardware producenter har måttet justere deres drivere ind efter diverse spil.

Eksemplet med Doom 3 til Xbox er da fint nok, men du skal lige huske på at spillet kører i 640x480. Det er der det meste ydelse er hentet. At sige at Far Cry er det pæneste spil på markedet er nok at tage munden lidt fuld, der er mange flotte og detaljerede landskaber. Men det lever stadig ikke op til det man ser i HL2, FEAR og Doom3.