Nvidia: DX10.1 er ikke vigtigt

Diverse d.  12. juni. 2008, skrevet af Goaguy 37 Kommentarer.  Vist: 1651 gange.

Nvidia udtaler i nogle dokumenter, der snart bliver offentliggjort, at DX10.1 ikke er vigtigt.




Som flere har bemærket, understøtter Nvidias kommende kort, GTX 260 og GTX 280, ikke DX10.1, hvilket ATI's nyeste kort derimod gør.

Nvidia siger selv: "DirectX 10.1 includes incremental feature additions beyond DirectX 10, some of which Geforce 8/9/200 GPUs already support (multisample readback, for example)."

Iflg. dokumentet skulle Nvidia i den grundlæggende design-fase af de kommende korts tilbliven have snakket med folk med stor viden inden for udviklingen. Disse konkluderede, at DX10.1 ikke var vigtigt. Herfor begyndte Nvidia i stedet at fokusere på ydelse og effektivitet.

DX10.1 er godt nok det nyeste, men det er så op til den enkelte at bedømme, om det er et modefænomen eller en nødvendig feature.

Kilde: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7856&Itemid=1

Pizzadude
 
Redaktør
Tilføjet:
12-06-2008 19:53:08
Svar/Indlæg:
5363/442
Tja, de har sikkert ret. Endnu er der jo ikke rigtig nogen der har kunnet påvise at DX 10.1 er en fordel frem for DX 10.0


Kirsby
 
Superbruger
Tilføjet:
12-06-2008 20:29:45
Svar/Indlæg:
1214/62
Er sikkert et salgs trick, som DAMMIT har tjent nogen penge på. Siger ikke at det er dem der har lavet det, men der bliver spundet mere guld på det end hvad det er værd


Rasmus66
 
Elitebruger
Tilføjet:
12-06-2008 20:31:55
Svar/Indlæg:
8762/174
Var det ikke et spil hvor det gav op til 20% mere ydelse hvis man brugte 10,1?


kvist1992
 
Elitebruger
Tilføjet:
12-06-2008 20:36:46
Svar/Indlæg:
3565/372
#3 Jo det var der.

Synes nVidia er LATTERLIGE, bare fordi AMD/ATi har fået et godt kort på hånden, kommer nVidia og finder alle ulemperne ved det. Det er VIRKELIG svagt!


Goaguy
 
Elitebruger
Tilføjet:
12-06-2008 20:40:03
Svar/Indlæg:
3410/199
Må ærligt indrømme, at jeg ikke selv givet særligt meget for DX10.1. Ja, det er det nyeste - og hvad så? Jeg har i hvert fald endnu ikke oplevet, at det har været en flaskehals for mig.

Jeg synes det mest problematiske i teknologiverdenen stadig er, at Intels chipset ikke understøtter SLI - og omvendt med Nvidia/CrossFire.
Kunne være lækkert med understøttelse for begge dele :yes:


FnaX
 
Elitebruger
Tilføjet:
12-06-2008 20:54:17
Svar/Indlæg:
4156/111
Det har Nvidia da ment længe?


Deere_dk
 
Overclocker
Tilføjet:
12-06-2008 21:18:21
Svar/Indlæg:
277/59
Jeg synes nu også Nvidia må tage sig sammen bare fordi de ikke er de første skal de ikke trampe på de andre 😕

de kommer med før eller siden engang kommer de vel også til at lave kvalitets kort må man håbe for dem for de er godt nok bagefter nu 😴

det gæller jo ikke kun om at lave flest FPS men og lave kvalitet det er det vi vil se godt gået ATI og tja nvidia kom frisk igen :yes:


hamderD
 
Elitebruger
Tilføjet:
12-06-2008 21:21:06
Svar/Indlæg:
7263/260
.. 😐


List
 
Superbruger
Tilføjet:
12-06-2008 21:24:38
Svar/Indlæg:
282/14
Alt jeg hører er tom snak...

Giv os nogen facts fra nogle neutrale personer, og jeg vil begynde at tro på det.


Thomasxx
 
Overclocker
Tilføjet:
12-06-2008 21:25:33
Svar/Indlæg:
287/47
Hey allesammen 🙂

Ved godt det ikke har meget med denne nyhed at gøre, men har lige set et system, som blev kørt med quad-sli nvidia 9800GX2, som fik 17518 3dmarks I VANTAGE!! 😲 :yes:


hightower
 
Elitebruger
Tilføjet:
12-06-2008 21:26:02
Svar/Indlæg:
2440/66
det er en pinlig undskyldning fra et firma, som ønsker at beskytte sine (på sin vis outdatede) produkter så meget som muligt. men man kan ikke klandre dem for at ville det eftersom de endnu ikke har et kort der kan klare det. selvom der ikke har været noget at bruge dx 10.1 til endnu (udover den understøttelse som på mærkværdig vis "forsvandt" fra et spil...) er det for tåbeligt at sige 10.1 ikke er "vigtig".

http://www.altomdata.dk/index....

http://www.elitebastards.com/c...


Gripen90
 
Senior Skribent
Tilføjet:
12-06-2008 22:05:54
Svar/Indlæg:
15982/637
Jeg synes bare jeg hører flade kommentarer fra folk der overhovedet ikke er inde i sagerne eller kun har læst overskrifterne.
DX10.1 er vand iforht. DX11. DX10.1 er ikke verdens undergang hvis man ikke får understøttelse i det.
Nej jeg er ikke "pro nogen" da jeg sidder med ATi og nVidia selv !... men jeg er kontra at man ikke læser på stoffet - før man slynger kommentarer rundt.

Hotheaded ? ja måske, men har været til ølsmagning på en torsdag aften... uhm lækkert. ❤


Goaguy
 
Elitebruger
Tilføjet:
12-06-2008 22:07:59
Svar/Indlæg:
3410/199
#10 --> Der ligger screenshots på nettet af GTX 280 i 3-way SLI.


Se mere her: http://hwt.dk/forumthread.aspx...


Stensgaard
 
Elitebruger
Tilføjet:
12-06-2008 22:18:59
Svar/Indlæg:
2620/327
Det skal de jo sige 😀


Deere_dk
 
Overclocker
Tilføjet:
12-06-2008 22:20:07
Svar/Indlæg:
277/59
Tja #12 måske du også skulle læse lidt i linket står der

I don't know about you, but I don't buy it. Not having DirectX 10.1 on the GT 200 would make Nvidia look bad, as the rest of its GPUs would be DirectX 10, and even more importantly, it would mean that ATI was a big leader on this one



Hmmm var det nogle gode Øl det ser det ud til 🙂


Strømskuf
 
Overclocker
Tilføjet:
12-06-2008 22:26:37
Svar/Indlæg:
389/12
#4 var det ikke ati der i sin tid mente at shader model 3.0 ikke var så vigtigt? 😀


MadsAG
 
Elitebruger
Tilføjet:
12-06-2008 22:30:04
Svar/Indlæg:
5421/53
#16 Jep 😛 *Host* Kvist.. Fanboy..


arsenio3d
 
Elitebruger
Tilføjet:
12-06-2008 22:31:17
Svar/Indlæg:
2823/238
Vigtigt eller ej, hvis man kan gøre det uden at det går ud over andre ting så go for it!

Tror det var assains creed der gav et enormt ydelsesboost med DX10.1 patch, og da man fandt ud af det, slettede de det fra spillet igen, de er jo vist sponsorerede af Nvidia 😳

Udover at der er nogle visuelle effekter til forskel fra DX10 til DX10.1 er det vist også noget med at der er meget strengere krav, og at kortene skal kunne klare visse ting osv. for at være et DX10.1 kort, dvs det skal være af en hvis kvalitet og kunne yde så og så meget med AA osv.

Om det er fordi Nvidia ikke kan klare de krav ved jeg ikke, men hvis det er derfor kan jeg godt se hvorfor de vil feje det væk med den undskyldning om at det ikke er vigtigt.

arsenio3d


Desyncer
 
Elitebruger
Tilføjet:
12-06-2008 23:08:42
Svar/Indlæg:
825/76
Øøøv....... nå hvad fanden, jeg gider alligevel ikke vista 🤣 Men jeg gad nu godt prøve den ping-pong demo fra ati.


#20
Fjog
 
Superbruger
Tilføjet:
12-06-2008 23:24:20
Svar/Indlæg:
14/0
#18 tror lige du skal revurdere din udtalelse angående Assassins Creed! For det første er det ikke sponsoreret af nvidia, TWIMTBP er udelukkende support til spilproducenterne, de får ikke en rød reje. Dernæst gav patchen stabilitetsproblemer på en del konfigurationer, og det var dette der blev vægtet højere, stabilitet over hele linjen med et fåtal der ikke får et ydelsesboost mod ustabilitet og et pænt ydelsesboost for HD 38X0 ejerne. Overvej hvorfor du ikke har hørt nogle klager fra ATI's side da patchen blev trukket tilbage...

Desuden, ja der er strengere krav at leve op til med henblik på DX10.1 kontra 10.0. MEN det er ikke noget nvidia ikke kunne have implementeret hvis de ville, de vægtede det bare ikke højt nok. Om dette så er en fejl må tiden så vise. Personligt tror jeg ikke det vil betyde noget.
Desuden ligger nogle af kravene jo til AA hvor ATI virkelig har stået svagt med deres HD38X0 serie i forhold til G80/G92. Dette skulle de til gengæld have rettet med RV770, da de ikke længere regner AA ud i shaderne.

Men i bund og grund tror jeg stadig nvidia har skudt lidt ved siden af med deres GT200 chip. Alene strømforbruget er helt skandaløst. Godt nok ser det ud til at være 50-100% hurtigere end 9800GTX, hvor sidst nævnte faktor helst skal gøre sig gældende nu de proklamere at hvis man mente springet fra 7900GTX til 8800GTX var stort ville GTX 280 være helt exceptionelt, men tror stadig folk vil finde det for dyrt og for strømkonsumerende.


arsenio3d
 
Elitebruger
Tilføjet:
12-06-2008 23:46:12
Svar/Indlæg:
2823/238
#20 ok de er måske så ikke sponsorerede, og jeg vidste faktisk ikke det der med stabilitets problemerne... my bad så...

Hvis de ville hvorfor så ikke bare gøre det, det virker bare lidt underligt; så ville ATI jo ikke have det "kort" på hånden og salgsargument....

Og så hindrer det jo også lidt udviklingen, jeg mener der er sikkert ikke mange der vil optimere deres spil til DX10.1 når Nvidia ikke er med på den.... ærgeligt imo.



Gripen90
 
Senior Skribent
Tilføjet:
13-06-2008 01:04:05
Svar/Indlæg:
15982/637
undskyld men hvor for p*kker hype over DX10.1 ? Vi ser jo allerede at der reelt ikke er meget i DX10 som kan efterlignes ret godt i DX9.
Tilbage i 2001 og 2002 var DX8.0 og Dx8.1 jo også "modsætninger", men skarpe forskelle udeblev.
Jeg kan godt forstå at folk er utilfredse over nVidia måsker ikke implementere DX10.1 i sine chipset (mig selv inkl.), men det er altså langt fra dette ramaskrig værd. Jeg vil meget gerne se screenshots af DX10 vs DX10.1.
Hvis det hele ikke gik op i kroner og ører kunne alt crappet sku laves i open source OpenGL der understøtter 117 flere ting end MS DX gør.


NoNig
 
Elitebruger
Tilføjet:
13-06-2008 01:08:42
Svar/Indlæg:
23132/740
nVidia er stadig mugne over "fadæsen" med Geforce5 og poster masser af penge i, at spilproducenterne kører med "nVidia, the way it's meant to be played". Det er klamt, usmageligt og særdeles forvridende.

DX10(.1), er på alle mulige måder, en fordel frem for DX9 (den diskussion er at finde andensteds i forum), og grunden til at nVidia holder kortene tæt til kroppen er, at ATi har været foran (endnu en gang).

Jeg snakker ikke om decideret optimering, men det er lidt ligesom da AMD blev bollet, godt og grundigt i røveren (<replace>vaseline med strandsand</replace>), af Microsoft og Intel, da de forsøgte at være "foran" med 64 bit.

Det er simpelthen en af PC-industriens klammeste stunts nVidia står bag hér, og jeg glæder mig til den dag, hvor "folk" opdager hvad der er foregået i kulissen.


Jesper
 
Elitebruger
Tilføjet:
13-06-2008 01:19:02
Svar/Indlæg:
2072/117
Alt er relativt! 🤣


DaMooze
 
Elitebruger
Tilføjet:
13-06-2008 03:03:01
Svar/Indlæg:
469/83
indtil videre har jeg ikke engang set en ordentlig grund til at gå fra DX9 til DX10.. så kan ikke se hvad DX10 til DX10.1 skulle gøre af specielt vigtige ting.. kan selvfølgelig godt være vodklaen der snakker 🤡


MaddPirate88
 
Elitebruger
Tilføjet:
13-06-2008 07:33:02
Svar/Indlæg:
2576/125
Må sige jeg heller ikke er imponeret over DX10. 😕 SÅ kan heller ikke se problemet i DX10 vs. DX10.1 og ja ATI er foran på det punkt, men udover det så var deres H38xx serie ikke stærkere eller bedre end Nvidia.

Glæder mig til at se HD4870 vs. GTX280, selvom jeg ikke tror der er noget at hente.


scheea2000
 
Superbruger
Tilføjet:
13-06-2008 08:08:49
Svar/Indlæg:
818/58
Jeg tror de fleste har fået vendt det lidt på hovedet IMO. 😛

Det handler ikke om dx9-10-10.1 er flottere - det handler om selve spillene som udnytter API´ernes muligheder.

Fx #26
"Må sige jeg heller ikke er imponeret over DX10".
Jo det burde du være, men ikke af dx10 spillene! Fx Cryteks stunt med dx9 og dx 10 comparison var jo til grin!

Faktum: dx10 tilføjer meget nyt! Dx10.1 meget lidt (derfor har de nok ikke kaldt det dx11).

Desuden går der jo tid for vi ser de nye features implementeret i spil - og det bliver ikke bedre, når dx10 er vista only! De fleste grafiske detaljer i spil er tit begrænset af hvad majoriteten af gfx kan.

Det handler jo heller ikke om at én del i grafikken er flottere. I mange tilfælde gør nye features i API´erne det hurtigere (og nemmere) at gøre visse ting, så krafterne i gfx fx kan bruges til noget andet.

#22: "OpenGL der understøtter 117 flere ting end MS DX gør"
hm, hvad fx?


Gripen90
 
Senior Skribent
Tilføjet:
13-06-2008 08:55:27
Svar/Indlæg:
15982/637
#27: OpenGL behøver ikke de de mange omskrivninger som DX er underlagt. Prøv at sammenligne antallet af OpenGL versioner med DX. OpenGL har en bred implementeringsbase hvor mange effekter eller tilføjelser her til har eksisteret før det kom ud i DX. Problemet er OpenGL er opensource og det skaffer ikke producenter mv penge.


scheea2000
 
Superbruger
Tilføjet:
13-06-2008 09:46:10
Svar/Indlæg:
818/58
#28 IMO er det netop et af problemerne ved OpenGL og jeg er også delvist uenig:

OpenGL er drevet af hardware - med det mener jeg at nye features i api´et bliver ikke implementeret før evt. hw understøtter det.

DX er lidt anderledes, der skal hw´eren understøtte et specifikt featureset før det må kalde sig fx dx10, så vidt jeg ved. Så dx har potentialet til at blive motor, hvor OpenGL er 'bagud'. Du har også i højere grad check på hvad gfx kan og hvad de ikke kan.

Så at OpenGL ikke har mange versioner på bagen er også en ulempe i nogen sammenhænge: for at følge med i features laver vendorne og ARB tonsvis af extensions: (fx http://www.opengl.org/registry... )

Det er sgu noget rod at kode IMO, men heller ikke et større problem. Noget større argument for dx eller gl er det ihvertfald ikke! "Bred implementeringsbase" er derfor så meget sagt da 'effekterne' oftest i starten er vendor specifikke.
Desuden bærer OpenGL på en tung arv, som stadig skal understøttes.
(GL3.0 bryder vist med det).

OpenGL har dog mange fordele - et af de større: fri for M$ kontrol, så fx dx10 er 'låst' til en eneste platform og styresystem version.


Illuminati
 
Elitebruger
Tilføjet:
13-06-2008 11:22:23
Svar/Indlæg:
10398/435
#11 og #18, i behøver jo ikke at misvise folk. Det er ikke noget "mærkværdig vis", Ubisoft valgte at release en patch som fjernede 10.1 implementeringen fordi den var blevet forkert implementeret. Det er der absolut ikke noget skummelt i.


Miccim
 
Elitebruger
Tilføjet:
15-06-2008 12:03:14
Svar/Indlæg:
3233/128
#30

Det gav ikke problemer overhovedet at køre dx10.1.

Problemet var ydelsen blev bedre for ati, og når det er et nvidia spil går det bare ikke at ati har kort som yder bedre med dx10.1 når nvidia ikke har kort til det. Og så er den ikke længere.

Se nu på det logisk ikke... Jeg spillede det og mange af mine venner gjorde, med ati kort UDEN at der var nogen problemer overhovet. (Liges som det blev beskrevet på INQ). Så kan vi kun se det som beskrevet ovenstående, og så hjælper det ikke at du argumentere så tyndt med:

"Ubisoft valgte at release en patch som fjernede 10.1 implementeringen fordi den var blevet forkert implementeret."

Kan også kun sige: Det er så røv dårligt af nvidia at de kun kan lave fps kort, men alt andet omkring så som watt, dx10.1 m.m. mangler de totalt. Men lad os nu se de nye kort e kommer med. 😎




#32
Fjog
 
Superbruger
Tilføjet:
15-06-2008 14:14:37
Svar/Indlæg:
14/0
#31 Slap lige af fanboy! Faktum er at patchen, om du vil det eller ej, skabte stabilitetsproblemer på et utal af konfigurationer, hvilket fik dem til at kalde patchen tilbage (stabilitet over ydelse). Jeg tror næppe din lille omgangskreds er repræsentativ i forhold til det egentlige marked...
HVIS vi følger din tankegang og dit scenarie, tror du så ikke du ville have hørt et ramaskrig fra AMD?

Og hvad angår din nvidia vs ati sammenligning så er det jo en rimelig dum udtalelse at komme med, især baseret på G92 kontra RV670. Det eneste punkt hvor RV670 var stærkere end G92 var ved deres idle forbrug, som nvidia til gengæld også kunne lære noget af! Arkitekturen havde højere TDP, ydede ikke så godt som G92, deres AA ydelse også en del under G92. De havde kun deres DX10.1 feature at køre på, og hvor meget har det lige betydet?
Du kan ikke bruge DX10.1 til en dyt det næste stykke tid. Hvorfor?

1. Du SKAL have Vista (SP1) hvilket stadig fåtallet af gamerne har, hvorfor en decideret udvikling hertil vil være spild af penge.
2. Størstedelen af hardwaren på markedet er stadig DX9 hardware (entusiasterne udgør stadig en meget lille del) hvorfor stort set alle spil det næste års tid, hvis ikke mere, stadig vil have fundament og udgangspunkt i DX9 kode. Hertil kan der så komme små DX10/DX10.1 only implementeringer.

Det er i bund og grund det samme ved hver DX skifte. DX9.0c var også en lille næsten ubetydelig opdatering af DX9.0b. Den største fordel her lå i at noget kode kunne køres ved færre loops i DX9.0c end DX9.0b, og her var rollerne byttet om, nvidia havde DX9.0c understøttelse og AMD havde ikke. AMD negligerede dets betydning netop som nvidia gør nu. Forskellen er at du hopper på deres marketingsbogus og buzzwords. Faktum er at ingen af disse opdateringer har på noget tidspunkt været så vigtige eller omfattende som de bliver slået op til og jeg fatter ikke at folk går i spåner over når den ene eller anden producent ikke har implementeret det. Jeg kunne forstå det hvis det var alá DX9 kontra DX10 eller DX10 kontra DX11, men ikke de her små opdateringer.

Jeg glæder mig meget til at se GT200 mod RV700 og især sidstnævnte virker for mig til at stå stærkest grundet pris/ydelse/watt-forbrug, men meget står og falder også med GT200's idle forbrug, for kan de holde de lovede 20-30 watt, tjaa så er de 230watt under load (dette er worst case for kortet) mere acceptabelt da det trods alt er her man mindst bruger det.


[G.N.U.]
 
Elitebruger
Tilføjet:
15-06-2008 15:29:09
Svar/Indlæg:
2175/21
nyeste dx udgave har sq ALTID været et salgstrick, i virkeligheden har de fleste jo skiftet deres kort til et der kan køre dx11 eller 12 inden de spiller det første spil der kræver dx 10 dx........så totalt ligegyldigt, hvilket dx ens kort bruger i praksis.


Miccim
 
Elitebruger
Tilføjet:
16-06-2008 17:53:38
Svar/Indlæg:
3233/128
#32 De problemer har jeg ikke set og du snakker ud fra hvad du har hørt. jeg har set at det kørte fint på blandede maskiner og div. sites har også skrevet at den ikke lavede problemer. Men det ved du jo alt om ikke. (Hvor får du din viden fra? det må vel være nettet eller er det fordi din maskine ikke kunne køre med den patch?)

Du skriver: Og hvad angår din nvidia vs ati sammenligning så er det jo en rimelig dum udtalelse at komme med, især baseret på G92 kontra RV670. Det eneste punkt hvor RV670 var stærkere end G92 var ved deres idle forbrug, som nvidia til gengæld også kunne lære noget af!

Hvis du havde læst hvod den patch gav så var det 20% større ydelse på ati kort og jeg sammenlignede ikke ned vnidia som du har grebet ud af luften. Så den "dumme" udtalelse er vidst på din side.....


Fordi du dvæler ved dx9 er det ikke ensbetydende med at os som er videre til vista og dx10.1 ikke vil have den bedste ydelse, når der er software som får tingene til at køre hurtigere...

havde nvidia været lidt smartere så kunne de have ladet folk vælge og ikke bare fjerne patchen, men nej som jeg sagde før:

Det går jo ikke at et spil har dx10.1 når nvidia IKKE har og at dx10.1 på NOGEN maskiner "desværre" kører bedre på et: Nvidia the way its ment to be played game...



arsenio3d
 
Elitebruger
Tilføjet:
16-06-2008 22:05:39
Svar/Indlæg:
2823/238
Det skriver TOM´S Hardware om emnet, i en test af det nye Nvidia kort.

What about Direct3D 10.1?
After the campaign Nvidia has been carrying on for some time now about its uselessness, it's not really a surprise to learn that the 200 GTX won't support this version of the Microsoft API. This is no surprise, but still, it's a disappointment. According to Nvidia, support for the API was considered initially, but the developers they queried said they felt it "wasn't important." It's true that Direct3D 10.1 doesn't add anything revolutionary - as we pointed out when the Radeon HD 38x0 came out, it's mostly a matter of correcting gaps left in the Direct3D 10 specifications. Yet there are still some interesting new functions that could prove to be useful to the rendering engines, such as deferred shading - which is more and more popular - and algorithms for rendering transparent surfaces without sorting.

So yes, it might all seem a little superfluous at a time when Direct3D 10 still hasn't shown clear superiority over version 9, but it still smells a little like an easy excuse on Nvidia's part. Saying that Direct3D 10.1 is of no use at the present time is not totally false (though Assassin's Creed proves the contrary), but it's a kind of vicious cycle - without support from Nvidia, clearly the API can't really be used seriously by developers. We've seen a situation of this type before, but it was the converse: When the NV40 came out, what developers were using Shader Model 3? Especially on the first GeForce 6s, where the main functions, like Vertex Texture Fetch and dynamic branching in the shaders weren't up to par. Yet, at that time the company was claiming to be in the avant-garde of 3D APIs.

So, our opinion hasn't changed since then. Even if it may not be useful immediately, we are favorable to the inclusion of the latest technologies in new 3D circuits, so that developers can familiarize themselves with them. We knocked ATI for it at the time, and this time we're allowing ourselves a little rant against

Nvidia.
http://www.tomshardware.com/re...



Miccim
 
Elitebruger
Tilføjet:
18-06-2008 00:15:38
Svar/Indlæg:
3233/128
🤣 🤣 🤣


#37
FnaX
 
Elitebruger
Tilføjet:
18-06-2008 02:51:29
Svar/Indlæg:
4156/111
Det er lidt det samme som at udgive et spil og så ikke lave patches til det? Selvfølgelig er der ikke de store forandringer i "patchen", men hvem vil ikke hellere spille Crysis 1.2 end 1.0? 😛