Game over for nVidia ?

Grafikkort d.  22. april. 2010, skrevet af Gripen90
Vist: 1026 gange.

Gripen90
 
Senior Skribent
Tilføjet:
22-04-2010 01:01:47
Svar/Indlæg:
15982/637
Det lader til at ATi/AMD satser på at nVidia slet ikke må få et ben til jorden - kan det blive et endeligt for nVidia ?.
At this point, you really have to ask yourself if Nvidia will survive. Its chipset business is gone because it didn't understand Moore's law. Its GPU business is like a floating goldfish circling the drain. Its GPU compute business is wounded. And Tegra is being laughed out the door. Meanwhile, ATI is on a roll.
http://www.semiaccurate.com/20...


Tråden blev redigeret 1 gang, sidst af Gripen90 d. 22-04-2010 01:05:19.
LlamaAgenten
 
Elitebruger
Tilføjet:
22-04-2010 01:06:31
Svar/Indlæg:
1129/113
Det ville da være forfærdeligt for konkurrencen. Tænk på prisudviklingen - og mon ikke udviklingen så også vil gå i stå?

Hvis der kommer en ny chip snart, gad vide om det er en man så skal vente på...


vanovich
 
Elitebruger
Tilføjet:
22-04-2010 01:07:42
Svar/Indlæg:
3972/242
Uha ,det kan gøre ondt. kan dog ikke helt fordtå, da det er stadige halv svært at få fat i deres 5970 kort, og de allerede snakkeom nyt chip 😲


Hediki
 
Elitebruger
Tilføjet:
22-04-2010 01:11:24
Svar/Indlæg:
1726/49
som #1 siger så frygter jeg også lidt for konkurrencen og priserne.

de snakkede allerede om deres 6xxx serie sidste år kan jeg mindes der var nogle rygter om dem, men at det er gået så stærkt ?? det er jo helt vildt 😲


M.Beier-old
 
Superbruger
Tilføjet:
22-04-2010 01:24:55
Svar/Indlæg:
1189/118
Uden at have læst det vil jeg skyde på det er Charlie som har skrevet det... Nu til at tjekke efter og begrunde efterfølgende...


HoPLa
 
Elitebruger
Tilføjet:
22-04-2010 01:27:50
Svar/Indlæg:
338/34
så er det godt s3 stadig lever 🤣


M.Beier-old
 
Superbruger
Tilføjet:
22-04-2010 01:40:14
Svar/Indlæg:
1189/118
Så blev der tjekket, den stemte... 🙂


OnTopic;
Der er lidt hold i det, men, lad os nu se om nvidia ikke har noget skjult? Såvidt jeg husker overvejede de også et comeback til chipset??

Baggrund:

Charlie er en fin nok gut, han kan skrive, og ofte er der et gran af sandhed i det han siger - MEN, det er stærkt overdrevet... Han er ikke ATI fanboy, han er nvidia hater....
Charlie fortalte mig benchmark resultater af FERMI under Cebit, og i betragtning af drivere dengang, var han temmelig spot on!!!

Charlie har ofte ret, meget meget ofte, men, somregl med en forsinkelse...
Nvidia skal fiske noget op af hatten, har jeg selv påpeget på diverse fora længe - de bør fokusere på at udvikle og producere, istedet for at bruge alle pengene på hadekampagner mod Intel...
(eksempel; http://www.intelsinsides.com/ http://www.nvidia.com/object/n... og mange mange flere)

#1
Det er jeg ikke så bange for....
ATI har AMD i rykken nu, de bliver ikke lige slået ud... Intel prøver desperat at komme ind på grafik markedet, lambree (eller noget i den stil) er et projekt Intel har mistet mange penge på, mange milliarder, men, før eller siden skal det nok komme igennem....


Jesper
 
Elitebruger
Tilføjet:
22-04-2010 01:45:04
Svar/Indlæg:
2072/117
#6 Hvor var det dog dejlig læsning, tak. :yes:


7913
 
Elitebruger
Tilføjet:
22-04-2010 02:03:51
Svar/Indlæg:
1124/68
Jeg må indrømme at jeg syntes det er åndsvagt hvis allerede kommer med en ny chip når de dårligt nok kan levere deres nuværende.


Johnny
 
Superbruger
Tilføjet:
22-04-2010 02:05:27
Svar/Indlæg:
2127/11
Jeg er temmelig langt fra en rigtig technørd, så det kan meget vel være at jeg tager fejl, men... Hvis nu Nvidia opgav deres imho tåbelige og meget ensidige satsning på enorme og effektforslugne chips der koster en bondegård at producere, så ville de vel for faen kunne smide et konkurrencedygtigt produkt på markedet. Snakken, som jeg har fået den præsenteret over det seneste år, er gået på, at der er problemer med at få tingene til at løbe rundt. Det tror da fanden, når man producerer så dyre produkter.

Imho har Nvidia ét nyskabende, interessant og relevant produkt på markedet atm, Optimus. Ikke alene er ideen gennemført god og logisk, det ser også ud til at de har formået at føre den ud i praksis, på en måde så man nærmest måber over effektiviteten på skidtet. I hvert fald efter denne anmeldelse at dømme: http://www.youtube.com/watch?v... Sådan noget kunne meget vel sidde i en bærbar jeg kunne finde på at købe. Alternativt, og der er Nvidia også mere end godt med: ION. De to teknikker tiltaler mig bigtime. Deres seneste grafikserie til de stationære efterlader mig rimelig kold, i hvert fald indtil videre.


..og ja, jeg håber at Nvidia formår at få vendt den kattepine der beskrives i #0 til succes, inden de evt får for store og tørre lommesmerter ud af det. Jo flere spillere på banen, jo bedre spil.


TestLab81
 
Overclocker
Tilføjet:
22-04-2010 07:52:54
Svar/Indlæg:
632/27
#8 det er stadigvæk TMSC som har problemer - ikke ATI. Men så vidt jeg husker så dropper AMD vist også TMSC og flytter over til Global something.

Så må vi håbe at det går noget bedre derfra ...


DEVIL_DK
 
Elitebruger
Tilføjet:
22-04-2010 08:06:19
Svar/Indlæg:
6531/410
grundet udvikling og priser ønsker jeg ikke at nvidia opgiver, men de burde måske se tilbage i tiden og huske på hvorfor de overhovedet fik et ben til jorden, 3DFX ente jo lidt med de problemer Nvidia står med, for høj pris , for langsom også tror de at de er gud.

på samme tid som nvidia har problemer med at leve op til folks forventninger er ATI endlig nået så langt at deres kort er gode deres software er blevet meget bedre.

så nvidia et lille råd vågn op af tornerose søvnen og fat i ikke er kongen mere.


Elitesoldaten
 
Elitebruger
Tilføjet:
22-04-2010 08:57:00
Svar/Indlæg:
2038/121
Jeg tror ikke at prisen på ATI bliver særlig meget højere hvis nVidia skulle dø, da HD5XXX serien kom ud havde de jo ikke nVidia at slås med som sådan, og kortene blev alligevel solgt til en formidabbel pris hvis du spørger mig.
Så skal det da være fordi at de individuelle websteder vælger at sælge dem til en forhøjet pris.


TestLab81
 
Overclocker
Tilføjet:
22-04-2010 09:03:05
Svar/Indlæg:
632/27
#12 aaah der tror jeg du tager fejl - hvis du er ene om pladsen, så skruer du op for prisen, for der er ikke andre der kan levere. Det er simpel forretningslogik 🙂


Elitesoldaten
 
Elitebruger
Tilføjet:
22-04-2010 09:05:38
Svar/Indlæg:
2038/121
#13 Hvorfor har HD5XXX serien så ikke kostet mere end den nu har? nVidia har jo ikke rigtig haft noget der kunne "counter" det. Hvis du forstår.


TestLab81
 
Overclocker
Tilføjet:
22-04-2010 09:08:04
Svar/Indlæg:
632/27
#14 jo de har da? hvor har du det fra? De har da haft deres 2XX serie ... ja den var ikke bedre end 5870 & 5970 men resten har da været i dyb konkurrence?

Hvad skulle forhindre ATI i ikke at sælge højere hvis der ikke var noget konkurrence? Du har jo ikke nogen mulighed for at gå andre steder hen, medmindre du vil have et onboard grafikkort 🙂

Og hvor ville spillene så være idag? Snakker vi Quake 2 grafik? 🙂


TheGreenFoX
 
Superbruger
Tilføjet:
22-04-2010 09:09:39
Svar/Indlæg:
1897/51
ATIs markedsandel er steget med et par procent i år (hvis jeg ikke husker galt), så at tale om nvidia er ved at dø er ikke noget der er hold i.

Nvidia og ATI skiftes til at være foran og bagefter, så jeg er ikke synderligt bekymret for konkurrencen


LlamaAgenten
 
Elitebruger
Tilføjet:
22-04-2010 09:18:54
Svar/Indlæg:
1129/113
Netop, hvis de får monopol på grafikkort, så kommer priserne til at stige voldsomt. Udviklingen vil sandsynligvis også gå ned i gear.


#18
7913
 
Elitebruger
Tilføjet:
22-04-2010 09:49:14
Svar/Indlæg:
1124/68
Jeg tror bestemt ikke at Nvidia er ved at dø, de sidder stadigvæk på størstedele af grafikmarkedet.

Jeg syntes så til gengæld at det ville være fint hvis udviklingen gik lidt i stå, for det ville tvinge spilproducenterne til at kode deres spil ordenligt, og ikke bare smide det ene lort ud efter det andet.


Fearless
 
Elitebruger
Tilføjet:
22-04-2010 10:26:34
Svar/Indlæg:
4536/104
#18 problemet er så bare at

1. Nvidia har ingen cost effektivitet = deres produkter er for dyre at fremstille og skal derfor sælges dyrt, og når de beviseligt ikke kan være mere end max få procent hurtigere end atis top kort i nogle programmer, De kan derved ikke konkurere med ATI på prisen, hverken sales price for hver gfx kategori og eller på nogen måde opnå samme differance på indtægt og udgift lavet per gfx kort. = ikke godt, og da slet ikke hvis rygterne om at de taber penge på hele GTX2xx serien er sande, da sansynligheden for at det samme så sker med GTX4xx er ret så stor.

Husk på at de skal sælge en hvis mængde for bare at dække reseach/udviklings udgifterne der er gået til the makings of GTX4xx serien. (og dette er jo en helt ny serie med mange nye tiltag)

2 + Deres special shaders ikk ka bruges til en rygende fis før softwaren er skrevet mere/bedrer til GPU computing, så er det altså kun ganske få kort nvidia har på hånden som gør dem specielle i forhold til andre gfx udbydere, hvis man kigger godt efter så er der nok kun den halv dyre 3D grafik med 120hz skærm og briller, man kan få specielt ud af nvidia og husk at de 120hz skærme knap har slået igennem i nu, kun fåes som 22 tommer so far, og har meget dårligt udvalg + høje priser at bøvle med + manglende (1920*1080p) full HD på 22 tommerne.

3. Nvidia har haft fejl på fejl, har lavet cover ups, og har bøvlet siden 88XX serien, og før det med FX5xxx serien, deres første 8800 serie var dyr, havde højt wattforbrug og var i mine øjne en stor fejl + intruduktion på skæve bit hastigheder på mem controlers og ram mængder fra nvidias side, noget som bider folk med et 88XX GTX/GTS kort i røven i nye spil i dag. Derudover har deres 8800 og 9xxx serier + GT210-220-230-240-250 været rebranded så mange gange, hvor det mildest talt har været samme chip som genbrug, højest ændret lidt så den har fået native HDMI suport og llidt lavere watt forbrug eller lidt ekstra shaders, dog aldri det store, og sidst men ikke mindst overpriced GT210-220-230-240 og 250 korts , som er under eller på lig med de gamle 9800GT/GTX/GTX+ korts, hvor kun DX10,1 + lyd over HDMI er tilføjet. Og husk på at ATI allerede havde dette med HD3000/4000 serien altså lyd i dem begge og DX10,1 på 4xxx serien og 5xxx serien.

at Nvidia så har valgt at forsøge sig at tjene nogle lette penge ved at overprice GTX210 og 220-240 i forhold til ydelsen og i forhold til AMD 4XXX og 5XXX serierne er jo helt hen i vejret. Disse dage skal man sku være ret så meget nvidia fanboy for at købe et nvidia kort imo.

og nej jeg er ikke fanboy, jeg køber bare hvad der bedst kan svarer sig, og denne gang var det så AMD, havde nvidia top kort tilbage i 6xxx og 7xxx serien, men har valgt at hoppe deres rebrand cirkus over og undgå FX5xxx ligneden kort med støvsuger kølere og 200+ watt forbrug. 😉


Svaret blev redigeret 2 gange, sidst af Fearless Angel d. 22-04-2010 10:53:28.


Elitesoldaten
 
Elitebruger
Tilføjet:
22-04-2010 11:44:52
Svar/Indlæg:
2038/121
#15 Jeg har ikke set en eneste investere i et 2XX kort fra nVidia siden ATI's 5XXX serie kom ud, så de har da haft lidt til ingen konkurrence på den serie, men stadig har prisen været rigtig fair i forhold til hvad man får.


Shutdown
 
Elitebruger
Tilføjet:
22-04-2010 11:53:05
Svar/Indlæg:
8947/160
18# Er virkelig inde på noget der mht kodning. Hvis man feks tænker på hvor flot den finpudsede HL2 engine stadig er i forhold til hvad det kræver af hardware (det gamle modern warfare er også godt skrevet),. Men mange nyere titler er slet ikke pænere men kører virkelig skidt selv med high-end hardware. Der er virkelig mange eksempler på dårligt kodede spil, og det er da synd når man ved hvad man stadig kan hive ud af dx9 med et 6800 kort eller x800 serien fra ati. (feks hl2) Regnekraften er 20x stærkere idag, men nogle spil er næsten ikke flottere. Og mange af dem der er kræver sli/crossfire for at køre ok.!!


M.Beier-old
 
Superbruger
Tilføjet:
22-04-2010 12:04:37
Svar/Indlæg:
1189/118
#18
Det er meget forkert.... Det gør Intel nemlig...
Det er langt fra alle computere som har et PCI/AGP/PCI-E grafikkort 😉


Kasseren
 
Elitebruger
Tilføjet:
22-04-2010 12:31:03
Svar/Indlæg:
1814/48
Jeg tvivler på at nVidia forsvinder, da det er markedet for deres workstation grfikkort der er den største værdi i firmaet, i hvert tilfælde hvis man skal tro http://www.trefis.com/articles...


MadsAG
 
Elitebruger
Tilføjet:
22-04-2010 12:37:13
Svar/Indlæg:
5421/53
Semiaccurate har samarbejde med ATI/AMD.

Derfor ville jeg holde mig langt væk fra dem.


TestLab81
 
Overclocker
Tilføjet:
22-04-2010 12:42:46
Svar/Indlæg:
632/27
MadsAG hvor har du det fra?


M.Beier-old
 
Superbruger
Tilføjet:
22-04-2010 12:45:13
Svar/Indlæg:
1189/118
#24
Det er ikke korrekt 🙂

Charlie kan bare ikke lide nvidia, og er ret gensidigt.... Find du det negative eller ikke promoverende i henhold til Intel på siden 🙂


Shutdown
 
Elitebruger
Tilføjet:
22-04-2010 12:52:25
Svar/Indlæg:
8947/160
Jeg tror heller ikke at Nvidia er på vej ned,. Deres brand er alt for stort til at det kan ske. De sælger sikkert også flere grafikkort end ati stadigvæk, på trods af rebranding x 5, og problemer med den nyeste serie. Alt andet end lige har de jo også lige udgivet verdens hurtigste grafikchip,, såeee døde,. Naaahhh.


LlamaAgenten
 
Elitebruger
Tilføjet:
22-04-2010 13:08:58
Svar/Indlæg:
1129/113
#20

Nu skal du også tænke på, at der har været et alternativ til AMDs kort - hvis AMD havde været den eneste spiller på markedet, kan jeg garantere dig for, at priserne ville være langt højere. Det er Danmark, med div. monopolvirksomheder et ganske godt eksempel på.


Capiz
 
Elitebruger
Tilføjet:
22-04-2010 13:24:30
Svar/Indlæg:
1498/226
Jeg undrer mig hvorfor det er at AMD/ATI ikke vælger at gå ind på det grafiske marked, så som nVidia har CUDA.
Det er den ENESTE grund til at jeg vælger nVidia, frem for ATI - pga. min profession.

Mvh
Rasmus


Kasseren
 
Elitebruger
Tilføjet:
22-04-2010 15:25:11
Svar/Indlæg:
1814/48
@29 ATi har prøvet at skabe deres eget alternativ til CUDA, det hed oprindeligt Close to Metal og nu Stream, uden at opnå samme mediebevågenhed eller tilslutning.

Men med OpenCL i horisonten er det nok tvivlsomt at CUDA bliver ved med at være den standard der bruges, når GPGPU kræfterne skal udnyttes, da OpenCL udmærker sig ved at den samme kode kan køre på nyere CPUer og GPUer fra de fleste fabrikanter(Intel, AMD, ATi. nVidia og Via). ATi er derfor meget engageret i at få de der tilsluttede sig Stream over på OpenCL.


Svaret blev redigeret 1 gang, sidst af Kasseren d. 22-04-2010 15:26:05.


NoNig
 
Elitebruger
Tilføjet:
22-04-2010 16:19:06
Svar/Indlæg:
23132/740
nVidia har været alt for aggressive og manglet innovation. ATi har rykket sig, hver eneste fucking gang de har lavet noget nyt, den slags sætter sine spor. At nVidia samtidig har indført en uigennemskuelig serie af rebrandede grafikkort, samt skuffet deres OEM'er fælt (semi-defekte chips/serier) og herefter været pænt nonchelant over for det, hjælper ikke just på sagen.

Det lyder forfærdelig AMD fanboi'sk af mig, men jeg synes egentlig kun nVidia får hvad de fortjener. Hvis forbrugerne så lugter lunten, kan det være at vi får det vi fortjener for vores surttjente mammon.

Det kunne også klæde nVidia at åbne lidt op over for os forbrugere, mht. CUDA. PhysX er til grin og deres "acceleration" der reelt kun er 100 % udnyttet på deres Quadro-serie er latterlig.

Intel presser på, for de vil jo gerne have at vi køber CPU'er der kan noget. Men når de samtidig insisterer på at tage en hamper pris for disse chips står de lidt i samme situation som nVidia. Nemlig at AMD leverer konkurrencedygtige produkter til priser vi kan være med på.

"Desværre" er både nVidias og Intels... hvad skal vi kalde det? "Trade-off?" på professionelle løsninger høje nok, til at de kan tåle at tabe nogle markedsandele og lidt anseelse. Hvor langt skal vi så, inden de indser at vi forbrugere er med til at spytte penge i kassen, ved jeg ikke. Men jeg håber da snart, at eksempelvis et grafikkort som GTX285 er jo håbløse teknologier der stadigvæk koster kr. +2.000,-

Men de har jo noget at have det i. Vil man have toppen af poppen, så koster det. Men AMD leverer samme ydelse (+/- 6-7 %), for - i mange tilfælde - omkring halvdelen eller to-tredjedele af prisen.


LlamaAgenten
 
Elitebruger
Tilføjet:
22-04-2010 18:06:41
Svar/Indlæg:
1129/113
#31

Jeg vil da vove at påstå, at det er nVidia der satser mest på innovation. AMD laver jo bare plain grafikkort uden specielle features. nVidia startede med stream processors, nVidia har Physx, Cuda, osv.

Hvad har AMD?


TheGreenFoX
 
Superbruger
Tilføjet:
22-04-2010 18:21:06
Svar/Indlæg:
1897/51
#32
ATI Stream og Eyefinity bare lige for at nævne dem jeg lige kunne huske...


NoNig
 
Elitebruger
Tilføjet:
22-04-2010 20:10:42
Svar/Indlæg:
23132/740
-> #32

Parallelprocessing (Multi-GPU/SLI) er opfundet af ATi. Stream processors? Programmérbare shadere? Det er vist ikke nVidia der har opfundet dét begreb. Sorry. PhysX? Yeah! Lad os da få endnu en standard, som kun éen gruppe af forbrugere har glæde af. Nej hvor fedt. Lad os smide alt andet ud til en side.

CUDA = Lukket platform, kun for nVidia-brugere. Fedt nok for folk der har noget at bruge det til. Hva' bruger du CUDA til, ud over at få stivert på grundet PhysX? Dér hvor CUDA virkeligt batter er samtidig dér hvor det har allermindst relevans for os.

AMD kan alt hvad nVidia kan og mere til. Nævn éen eneste teknologi nVidia har, som ATi ikke har haft eller kunnet efterligne, som nVidia har været nødt til at opfinde fordi de havde absolut intet andet kørende for sig.

Til gengæld, så skal nVidia have ros for deres aggressive markedsføring. Ikke kun over for os forbrugere, men også udvikling.

Tænk dig, hvis et andet selskab førte sig frem på lukkede teknologier der kan bruges til ca. rigtig lidt, har monopolstatus på deres API og agressivt prøver at gøre det til en standard.

nVidia kan ikke noget, som ATi ikke kan eller har kunnet. Aldrig. I langt de fleste tilfælde har de blot kopieret, opkøbt eller licenseret eksisterende teknologier og gjort det til deres egen.

Men fair nok, hvis du vil lade dig fanboi forblænde af den Orhsome nVidia. Jeg siger dig bare, at deres eneste store kort, er deres evne til at markedsføre sig selv. Dén ros skal de trods alt have.


Capiz
 
Elitebruger
Tilføjet:
22-04-2010 21:00:38
Svar/Indlæg:
1498/226
Ja, jeg skal bruge CUDA til adobe CS5 pakken, og det kan ATI ikke levere, desværre, for jeg VILLE gerne have ATI, super fede kort.


NoNig
 
Elitebruger
Tilføjet:
22-04-2010 21:05:32
Svar/Indlæg:
23132/740
-> #35

Det eneste CUDA kan levere til CS5 er Mercury. Resten er simpel OpenGL acceleration, som ATI også kan levere. Men lur mig om ikke der findes et ATI alternativ der er baseret på Stream? 🙂

EDIT: Tjek evt. flg. link: http://www.adobe.com/products/...


Svaret blev redigeret 1 gang, sidst af NoNig d. 22-04-2010 21:10:31.


Gripen90
 
Senior Skribent
Tilføjet:
22-04-2010 23:26:41
Svar/Indlæg:
15982/637
#34: Parallelprocessing (Multi-GPU/SLI) er opfundet af ATi. Stream processors?

Huh ? 😲 SLi i sin oprindelige form er jo da 3Dfx, så opkøbt af nVidia til deres SLi. ATi brugte AFR (Alternate Frame Rendering) til deres første Dual GPU kort Aurora el. ATi Rage Fury MAXX. Hvem der først var ude med termen stream processors har jeg dog ikke lige bidt mærke i.
Eller også har jeg misforstået din sætning... 😎


Svaret blev redigeret 1 gang, sidst af Gripen90 d. 22-04-2010 23:27:19.


NoNig
 
Elitebruger
Tilføjet:
22-04-2010 23:54:59
Svar/Indlæg:
23132/740
-> #37

Jeg snakker heller ikke om "SLI", men valgte at bruge udtrykket da folk nok kan relatere til det. Multi-GPU-brug (det rimede, og det var ikke engang med vilje) er "opfundet" af ATi 🙂

Et godt eksempel er noget vi to kan relatere til. Nemlig flysimulatorer. Der står en F-16 simulator i Aalborg, en stor del af den slags simulatorer er/var baseret på en lang række MMX CPU'er og et tilsvarende antal "GPU'er" (nVidia har lidt patent på dét navn) til at levere den totale oplevelse.

I dag leverer sådan et setup vel en ydelse lignende noget der knapt nok kan trække det gamle "Mafia".

Multi-GPU var, i rigtig lang tid, noget ATi og kun ATi kunne finde ud af. Det var også derfor at mange (jeg selv inklusive) undrede sig over den dårlige ydelse i de første Crossfire konfigurationer i sin tid.

Jeg ved faktisk ikke om det, i dag, er ATi eller nVidia der (generelt, og ikke kun enkelte titler) scorer bedst i multi-GPU disciplinen 🙂


Gripen90
 
Senior Skribent
Tilføjet:
22-04-2010 23:57:13
Svar/Indlæg:
15982/637
#38: Ok så er jeg med på hvad du mente 😛


NoNig
 
Elitebruger
Tilføjet:
23-04-2010 00:00:36
Svar/Indlæg:
23132/740
-> #40

Vi to kan altid blive enige 🤣 ❤ 😛