Driver snyd fra Nvidia

Litteratur d.  28. april. 2004, skrevet af M@D-M@X
Vist: 1182 gange.

M@D-M@X
 
Elitebruger
Tilføjet:
28-04-2004 20:12:14
Svar/Indlæg:
477/254
Kommentar til nyhed på: http://www.overclocking.dk/new...
Die_Happy
 
Elitebruger
Tilføjet:
28-04-2004 21:54:31
Svar/Indlæg:
3385/80
Jaja de kan bare ikke lade være ?? :00



ChrisCornell
 
Elitebruger
Tilføjet:
28-04-2004 22:05:18
Svar/Indlæg:
4338/142
Lidt partisk overskrift M@dM@x :l



ChrisCornell
 
Elitebruger
Tilføjet:
28-04-2004 22:25:11
Svar/Indlæg:
4338/142
nVidia blev svinet til gennem hele FX-perioden (og ja, deres AA er set bedre) men screenshots fra Geforce "6" serien ser jo flotte ud.



Orca
 
Superbruger
Tilføjet:
28-04-2004 22:44:26
Svar/Indlæg:
516/25
Jeg synes også lige folk skal tage en slapper. Som han skriver i artiklen, hvorfor bryde sig om at usynlige detaljer ikke bliver renderet perfekt?



Mathias-K
 
Superbruger
Tilføjet:
28-04-2004 23:21:11
Svar/Indlæg:
301/14
Jeg synes #2 demonstrerer situationen meget godt. Mange vil gerne have Nvidia svinet til igen, og skal kun bruge et rygte om en mulighed for en chance for at NV har snydt før de stempler.

Jeg har set et "benhårdt" argument, der bestod i at hvis man tvang et 6800U til at rendere som et 9800XT faldt ydelsen betragteligt... Øøøh, ville alt andet ikke også være mærkeligt? ?:(

Jeg synes det svarer til at sætte nogle BH-5 chips sammen med et par bjælker PC4400 og lade dem køre høje frekvenser. Sådan kan man let konkludere at PC4400 er bedre, selvom det egentlig ikke er tilfældet.

Mon ikke de gutter der sidder og tester lige har dummet sig og købt et 9800XT til 3500? :e



JakobL
 
Elitebruger
Tilføjet:
28-04-2004 23:54:57
Svar/Indlæg:
162/5
Det ser ud til at Nvidia har fået ryddet op siden FX kortene mht. til billedkvalitet.

Desværre har jeg stadig previewet af 6800U på Tomshardware i baghovedet hvor Far Cry på 6800 kortet haltede langt bagefter et 9800XT i billedkvalitet. Det skulle dog løses med en patch, men indtil vi ser den kommer mit næste grafikkort fra ATI.



Remulus
 
Superbruger
Tilføjet:
29-04-2004 02:20:25
Svar/Indlæg:
108/42
Fatter ikke den slags indlæg, hvor en producent skal flames...

Handler det ikke bare om, hvad der ser BEDST ud på skærmen?...

God ide!

Er ATI's kommede GFX bedst = Køb DET
Er Nvidia's kommende GFX bedst = Køb DET

Resten er jo kedsommelig flueknepperi...






Tonnilerche
 
Elitebruger
Tilføjet:
29-04-2004 07:11:59
Svar/Indlæg:
6052/189
jeg er sgu egentligt ligeglad om gfx'et komprimere grafikken, for at få det til at køre hurtigere... sådan ligger landet...

snyd anser jeg hvis driverne går ind og smider fx 25% oveni den score kortet får i div bench's...





-FiDo-
 
Superbruger
Tilføjet:
29-04-2004 08:03:05
Svar/Indlæg:
243/10
Tjah...

Jeg maa nu sige at jeg giver #0 ret.. Det er noget crap at den komprimerer og giver hoejere score deraf naar de bencher og sammenligner med andre.. Ikke rigtig fair vel?

Men naar man spiller er det da klart en fordel hvis det ikke render det man ikke kan se.. Men! Eftersom at naesten alle spil allerede har denne feature kan jeg ikke se at det skulle give mere at nvidia har "fixet" det... Fx gjorde Quake1 det da det udkom.. Saa jeg gaar staerkt ud fra at de fleste spil bygget paa quake engninen ogsaa har denne feature..

Men nVidia skal lige tage sig sammen og saa evt lave en driver til game og en til bench...



Carpe^Diem
 
Elitebruger
Tilføjet:
29-04-2004 08:04:40
Svar/Indlæg:
1155/43
Jeg kan ærligt talt ikke se hvorfor ens gfx skal rendere alt i fuld kvali, selv det du ikke ser. Jeg vil nærmere kalde det en genistreg, hvis det virkelig ikke går synligt ud over kvaliteten. Og som Tonnilerche skriver, så vil jeg også først kalde det snyd hvis nVidia eller for den skyld ATI, lavede tomme drivere som kun lavede scoren i en eller flere test 25% større.



-FiDo-
 
Superbruger
Tilføjet:
29-04-2004 08:26:33
Svar/Indlæg:
243/10
#15: Sikke da noget crap at sige ;)

Jeg gaar op i benchmarks fordi de nu engang er det de er.. SOM JEG SKREV saa er jeg da glad for at de har lavet noget der allerede var lavet i naesten alle spil, til naar du spiller.. Men jeg syntes stadig at saalaenge ati holder sig til ren gpu power naar vi snakker 3dmark saa burde nVidia goere det samme..

Og jeg skriver nu lige endnu engang: Naesten alle 3d engines er lavet saa at de ikke render det du ikke ser.. Det har de vaeret siden ~95 hvor quake kom...

(For NoNigs skyld da han aabenbart ikke gad laese mit indlaeg, men godt kunne brokke sig) ;)



espeholt_jr
 
Elitebruger
Tilføjet:
29-04-2004 08:35:21
Svar/Indlæg:
2175/186
Øhm hvis det er at man ikke kan se forskel, så er der sku da intet galt i det ?... ATi ville forhåbentlig gøre det samme hvis de kunne finde ud af det :P



Wise
 
Elitebruger
Tilføjet:
29-04-2004 08:35:30
Svar/Indlæg:
1604/60
Nu er driver snyd vist ikke den rigtige betegnelse at bruge her.

Det er jo sådan at Nvidia købte STC teknologien ( mener jeg den hedder ) af S3 for en del år siden, og det er så den teknologi de langt om længe begynder at bruge i deres drivere, det har været implementeret i GPU´erne siden GeForce4 kortene kom frem måske endda før det.
Den består af optil 4x hardware komprimering af textures uden tab af detaljer, det vil jo betyde optil ca. 4 gange bedre båndbredde i ram, fordi mængden af data der skal transporteres er meget mindre :)

Sum=Mere fart :e



Carpe^Diem
 
Elitebruger
Tilføjet:
29-04-2004 08:42:47
Svar/Indlæg:
1155/43
Quote Fido: "Men jeg syntes stadig at saalaenge ati holder sig til ren gpu power naar vi snakker 3dmark saa burde nVidia goere det samme"

Så er det lige jeg spørger hvorfor nVidia skal gøre som ATI siger ? Hvem har sagt at det er ATI der skal sætte standarten og udviklingen af ny teknologi ??? Det er det jeg anser som mest crap i dine udtalelser !




#15
Jay
 
Elitebruger
Tilføjet:
29-04-2004 10:22:48
Svar/Indlæg:
193/54
syntes ikke der er noget galt i det de har lavet her, hvis det får kortet til at yde bedre uden tab af billedkvallitet og anden tab af perfomance i spil osv, jamen så syntes jeg bare det er smart tiltag hvorpå man kan få kortene til at yde mere..



Pressure
 
Superbruger
Tilføjet:
29-04-2004 12:03:16
Svar/Indlæg:
223/10
DirectX 9c tilføjer jo egentlig bare PS og VS 3.0 support. Så det har ikke en skid at sige med det her.



Ebzen
 
Elitebruger
Tilføjet:
29-04-2004 14:53:41
Svar/Indlæg:
592/17
@27:
Ha Hah.. Damn. Du er ligså latterlig at høre på som en vis bruger herinde fra. og jeg gider ikke nævne hans navn, der er ingen grund til at rippe op i fortiden :D
Men jeg tror du ryster og skælver lidt i dine bukser.. Fordi nu har Nvidia lavet et suverænt hurtigt grafikkort. Og dine "venner" fra Ati har ikke lavet et udspil endnu.
Og så skynder du at gemme dig bag din skærm og råbe: snyd snyd snyd. Bliv dog voksen. Sådan går det. :e
Vinderen griner og taberen whiner!! Bah wah!! :p :p





apprenti
 
Superbruger
Tilføjet:
29-04-2004 14:55:18
Svar/Indlæg:
196/10
det her er da ved at udvikle sig til en hønsegård...

kam man ikke længere respektere andres meninger?
stop med at citere andres meninger med mindre der er noget som er en lodret løgn!

der er nogen som går op i benchmarking og andre der går op i gaming og deres bench og så kan man jo så vælge det kort man nu mener er bedst!


nvidias driver er kun beta, hvilket vil sige at det ikke er final edition, desuden ville det være smart at se hvad andre hardwaresider skriver. tech report har interviewet en nvidia ansat som forklarer at de udnytter en feature(angående at nogle usynlige elementer mangler) i ps3, hvilket jeg personligt mener er helt fint.



#19
Myth
 
Elitebruger
Tilføjet:
29-04-2004 16:07:01
Svar/Indlæg:
675/55
Tror lige jeg vil spæde lidt til debatten med dette link til HardOCP der har været ved at se lidt på hvad PS3 egentligt kan, og også lidt på de screenshots man har set fra Nvidia.. fino læsning:

http://www.hardocp.com/article...

Tror måske jeg stille vil tænke for mig selv, er de nu igang igen..



#20
FLD
 
Elitebruger
Tilføjet:
29-04-2004 16:45:49
Svar/Indlæg:
417/68
Jeg syntes det er helt og aldeles utilfredsstillende at Nvidia, lad os bare kalde det fusker med deres drivere, husk lige på hvad der sælger grafikkort, det gør høje 3dmark2001SE og 3Dmark03 score, og med rette. Et udgangspunkt er der vel altid brug for og jeg vil væde min hat på det ikke er for sjov de komprimere grafikken, men det er jeg faktisk ret så ligeglad med så længe jeg er tilfreds med det jeg ser på skærmen..!

Men jeg kalder stadig Nvidia´s markedsføring for misvisende.! For det gælder kun om en ting, SALG og mere salg og det gør høje benchmarks. Husk lige på hvad vil selv teste med på siden her.!

BTW. Kom nu ikke og kald mig ATI mand ;)




Micker
 
Superbruger
Tilføjet:
29-04-2004 17:13:14
Svar/Indlæg:
1012/98
som #1 siger så længe det ikke går for meget ud over kvaliteten er jeg også ligeglad, jeg klager da heller ikke over mp3 :)

Det er da nok bare fordi der er nogen der har haft ondt i røven over at det nye GFFX score så sygt meget i bench...



Pejsen
 
Superbruger
Tilføjet:
29-04-2004 17:44:57
Svar/Indlæg:
415/19
I virkeligheden er det jo bare en hårfin balance som ingen kan vurdere hvor ligger - kun deres egen balance!

Hvis Nvidia ønsker at lave nogle optimeringer der går en smule ud over billedekvaliteten men til gengæld giver en højere ydelse, så må de om det.

Men hvor skal de sætte grænsen? - Skal deres billedekvalitet være på højde eller bedre end ATI? Hvor er den bedste "middel-grænse"?

Det er altsammen spørgsmål som 10 personer vil besvare på 10 forskellige måder. Derfor er det op til grafikkortproducenten at bestemme deres grænse.

Så kan vi som forbrugere bestemme hvilken "grænse" vi bedst kan lide :)



PolleDK
 
Superbruger
Tilføjet:
29-04-2004 18:01:25
Svar/Indlæg:
602/17
Myth>>

Novra! Der er saten edeme forskel fra PS1.1 til PS3.0!

En del mere end jeg havde troet! Nice test manner!



#24
Myth
 
Elitebruger
Tilføjet:
29-04-2004 18:23:03
Svar/Indlæg:
675/55
Men forskellen fra PS2.0 til 3.0 er ikke stor, og åbenbart er Nvidia igen lige langt nok fremme med deres markedsføring igen...



PolleDK
 
Superbruger
Tilføjet:
29-04-2004 18:32:48
Svar/Indlæg:
602/17
#37 He.. ja der er ik så stor forskel. Så forskellen ligger nok mest i PS1.1 til PS2.0 istedet. Men der er da forskel ihvertfal hvad enten man går til 2.0 eller 3.0.



red_martians
 
Moderator
Tilføjet:
29-04-2004 20:37:09
Svar/Indlæg:
7881/1165
xGIDIA 🙂
Hehe...kunne vær de kunne lære at snyde bedre sammen.
Ej, nVidia burde begynde at bruge nogle af de fede tekniker, de fik fra 3dfx. Tjek lige Geforce6800SLI.. 2Geforce6800. PCI ekspress giver faktisk grobund til sådanne systemer, uden mastercore.
En anden ting er at de burde benytte Gigapixel-teknologien. En teknik der øger den praktiske filrate med mindst en faktor10.
Altså en måde at ignorere overdraw på. Måske noget de benytter i NV50.



Erroneus
 
Elitebruger
Tilføjet:
29-04-2004 22:00:54
Svar/Indlæg:
673/19
før folk begynder at sige OMG en forskel imellem ps3.0 og ps1.1 så kig lige på http://www.firingsquad.com/har...

de tech demos som nvidia har vist frem, hvor de viser forskellen imellem ps1.1 og ps3.0 er bullshit, da de har brugt en low detail ps1.1.

Ang. driver snyd, så må de optimere alt det de vil, man skal bare ha mulighed for at slå det fra. Dvs. når man sætter det til highest quality må der ikke være IQ tab.

Der må heller ikke være rutiner i der opdager at nu er det her kort i, så vi sætter lige kvaliteten ned, nix nix det går ikke det skal man lade brugeren om.

ang. det er beta, så ja tæl til 10 det kan nå at blive fixet men det er bare bekymrende, specielt da de beta drivers bliver brugt til benchmark/spiltests og mange basere der valg af grafikkort ud fra de benchmarks/spiltest :)



Erroneus
 
Elitebruger
Tilføjet:
30-04-2004 11:12:58
Svar/Indlæg:
673/19
Enig der phaze, men desværre er der mange der gør det, de ser et resultat og så køber de de lige så snart det kommer ud, ikke bare nogle få men rigtigt mange gør det.

og så har førstegangs-indtrykket meget at sige jo :)