Nvidia Geforce GTX 880 først i december?

Litteratur d.  21. april. 2014, skrevet af morra19
Vist: 11695 gange.

morra19
 
Moderator
Tilføjet:
21-04-2014 22:29:15
Svar/Indlæg:
2672/468
Der går flere rygter, og de er desværre ikke gode for grafikfolket.

Læs mere her: http://hwt.dk/LiteratureDetail...
Gamer_Kate
 
Nørd
Tilføjet:
21-04-2014 22:55:31
Svar/Indlæg:
304/3
Øv altså, ikke så god nyhed 😕
Det gode er jeg kan nå at spare op til det og endda to styks 😛


Fearless
 
Elitebruger
Tilføjet:
21-04-2014 23:28:17
Svar/Indlæg:
4536/104
Havde forudset dette forlængst.

1. De har næsten lige released 7xx serien (sidste sommer) og der går altså typisk mindst et års tid før en ny nr. serier kommer.

2: De har sidst i feb udgivet nyeste midend kort, og sidst i December udgivet nye highends 780Tis , at release gtx8xx så tidligt derefter ville være at skyde dem selv i foden og ikke lade salgende have mulighed for at gå deres gang.

Derudover (3) så¨har TMC eller hvad pokker det nu er deres Waffer producent hedder, sagt at de ikke har 20-22nm serierne klar før engang tidligst Q3-Q4 i år. Og maxwell er beregnet på en lavere og lidt mere effektiv nanometer produktion.

Dertil 4: kommer det at Der ikke PT er noget der tyder på at AMD kommer med nyt før tidligst Q3 i år også, og derved er der ingen grund til at haste igennem produktionen før tid.

og til dels (5): så har lavere pc salg den betydning at nogle kort/gpu´er kan der være så lidt afvikling på, at man sådan set kan risikere at brænde inde med nogle gpu´er hvis man udsende nye modeller for tidligt også. Tror det bliver typisk mere længere tid mellem nye (non refesh) modeller i fremtiden. og oftere med Refresh, det bliver bagsiden af medaljen på dårlige pc/hardware salg. Detsværrer ☹


Svaret blev redigeret 1 gang, sidst af Fearless Angel d. 21-04-2014 23:29:52.


Gamer_Kate
 
Nørd
Tilføjet:
22-04-2014 08:06:02
Svar/Indlæg:
304/3
#2 Okay lyder sørgeligt det sidste du har skrevet ☹


Grymok
 
Superbruger
Tilføjet:
22-04-2014 08:22:55
Svar/Indlæg:
656/40
#2 Kan ikke se problemet i det sidste du skrev :)
Det vil gøre at den hardware man køber, vil opretholde en fornuftigt gensalgs værdi i længere tid. En lille bonus;).
Det kan måske også være med til, at der snart kommer mere focus på at optimerer spil, så man ikke er nødt til at have 2-3 af de hurtigste kort, for at spille et spil(Tvivler dog på at dette vil komme til at ske) :)

Så når man køber nyt grafikkort kan man være 'heldig', at den ikke allerede er forældet når der trykkes bestil.


bmwnp
 
Elitebruger
Tilføjet:
22-04-2014 10:59:43
Svar/Indlæg:
611/4
Så har de også rigeligt tid til at forhøje båndbredde på memory:)


Ciric
 
Elitebruger
Tilføjet:
22-04-2014 11:24:27
Svar/Indlæg:
1881/22

Så har de også rigeligt tid til at forhøje båndbredde på memory:)

bmwnp skrev d. 22-04-2014 10:59:43

Det sker ikke. -det er deres GM204 chip, altså deres upper midrange. Forvent den beholder de 256bit


NoNig
 
Elitebruger
Tilføjet:
22-04-2014 11:41:20
Svar/Indlæg:
23132/740
-> #5

Jeg tror, at det netop er én af de ting, som de kun gør af nød.

Båndbredde er "dyrt", også på grafikkort. Jeg er, til gengæld, fuldstændig enig med dig i, at det var et godt sted at fokusere. Men, før vi snakker hardware, er vi også nødt til at erkende, at tingene går alt for hurtigt, og har gjort det de seneste 7 år.

(Yep. 'Crysis' er 7 år gammel)

Af en eller anden grund, har fremgangsmåden været brute force og ikke så vildt megen finesse. Indrømmet, jeg er hverken grafikkort-designer eller spiludvikler - men, jeg vil påstå, at konsollerne står som et lysende eksempel på, hvad man kan opnå med god solid kode, optimeret til én given platform.

Jeg siger ikke, at nVidia og AMD skal holde op med at udvikle nye og vilde grafikkort. Det jeg siger er, at for første gang - i mange år - ser det faktisk ud til, at man har fokuseret på mindre strømforbrug (Maxwell).

Men, det er et tveægget sværd. Folkene fra nVidia er ikke dumme, og de ved godt, at håndholdt/kompakt, er fremtiden - eller, fokuspunktet lige nu.

For at sætte det lidt i relief, så kan man - med lidt god (meget?) vilje - sammenligne grafikchippen i en PS3 med et Geforce 9600M GT.

Intels Iris Pro 5200 ligger, ydelsesmæssigt, ca. 4x gange over dét (tilsvarende ca. et Geforce GTX 260).

Der er SÅ mange ting i vejen, med den måde man har valgt at skrue industrien sammen på - hvor alle leger "catch up".

Jeg ved godt, at AMD og nVidia forsøger at minimere strømforbruget - hvilket jo betyder, at man kan skrue op for hastigheden og få mere ydelse pr. Watt ift. forrige generation.

Spiludviklerne burde arbejde mere på at optimere kode.
Chipproducenterne burde arbejde mere på at minimere strømforbrug.
Coca Cola er bedre end Pepsi.


wolver
 
Elitebruger
Tilføjet:
22-04-2014 12:57:44
Svar/Indlæg:
652/24
#7 amen.

Det eneste jeg rigtig ærger mig over, er af jeg meget gerne vil have en erstatning for mit 680,jeg synes dog ikke de nuværende highend er pengene værd.

780. Er penge ud af vinduet, og jeg er ikke sikker på jeg gider rode med et 290x som i mine øjne er et rimelig svagt produkt i forhold til varme udvikling og strøm forbrug.

Men tanken om at vente næsten et helt år, er meget deprimerende ☹


NoNig
 
Elitebruger
Tilføjet:
22-04-2014 13:17:20
Svar/Indlæg:
23132/740
-> #8

Jeg er også lidt meh på de to. Men, det er jo, reelt set, ikke de to produkters skyld, men omstændighederne omkring dem.

I min optik, får man stadigvæk mest smæk for skillingen, ved at købe i prislejet kr. 3.000,- +/- kr. 500,-

Ud af pt. 1.143 mulige [grafikkort] på EDBpriser, svarer prislejet kr. 2.500-3.500,- til ca. 100 modeller.

De billigste, er GTX 670/770. De dyreste, er GTX 780.

Er ydelsesforskellen virkeligt kr. 500-1.000,- værd?

Det må den enkelte gøre op med sig selv. Jeg ville dog hellere spendere kr. 2.500-3.000,- og så bruge den sidste plov på lidt ekstra lir (større SSD, mere RAM, what-ever) end noget der kun kan måles i en benchmark.

290X havde ellers potentiale til at ryste nVidia, lidt. Men der var bare et par ting som gik galt (som AMD vel reelt ikke er skyld i?), hvormed nVidia kunne ånde lettet op og flytte foden fra speederen.

Jeg tror heller ikke, at det er et tilfælde at GTX 880 er udskudt. Jeg mener. Er behovet der, på markedet?

Tomshardware har lige anmeldt 2x R9 295X2 i CF. Det gik ikke så godt. Det gik rigtig skidt, faktisk. Rigtig, rigtig skidt.


EasterKanin
 
Elitebruger
Tilføjet:
22-04-2014 13:55:28
Svar/Indlæg:
4337/121
#9 Så er det nok ikke dette færdige system man skal have fingre i 😀

http://www.caseking.de/shop/ca...

37K er jo helt ude i skoven :no:


Svaret blev redigeret 1 gang, sidst af EasterKanin d. 22-04-2014 13:56:12.


Ciric
 
Elitebruger
Tilføjet:
22-04-2014 14:02:19
Svar/Indlæg:
1881/22
Sådan har det altid været når man har sat to dual gpu kort sammen.

Der er kun EN grund til at gøre det: Fordi man kan 🤡

e: Men det skal da nok blive spændende at se hvad "de store drenge" kan med sådan to under LN2 🤣


Svaret blev redigeret 1 gang, sidst af Ciric d. 22-04-2014 14:03:45.


NoNig
 
Elitebruger
Tilføjet:
22-04-2014 14:38:22
Svar/Indlæg:
23132/740
-> #11

Jeg tror du misforstår mit budskab så 🙂

Hvis ikke optimeringen af softwaren spiller sammen med hardwaren, vil man opleve netop det som Tomshardware erfarede med de to 295X2'ere.

Én ting er, at en quad-GPU opstilling ikke skalerer ligesom single til dual. Men, at der ligefrem ikke er nogen skalering (enddog negativ) er et kæmpeproblem.

Man kan så stille spørgsmåltegn ved deres metode og alt det der. Men når en teknologi ikke fungerer som den er tænkt, om så det er quad-GPU eller en kaffemaskine, er der noget helt galt.

Igen. Jeg er hverken chipdesigner eller spiludvikler. Men, når vi ser minimal fremgang, på 7 år (endda længere tilbage, hvis man vil), til trods for væsentligt kraftigere GPU'er der ikke leverer markant anderledes teknologi, så er der noget galt.

Hence min sammenligning med PS3'erens grafikydelse og Intels Iris Pro. Jeg er klar over, at der er tale om forskellige platforme, teknologier, osv.

Men for mig, som forbruger og "entusiast", synes jeg at der er noget som er stagneret. Især når man så husker på, at PS3'eren blev lanceret i '07, formelt afløst i '13.

Jeg siger ikke, at hverken spil eller grafikkort ikke har udviklet sig i løbet af den periode. Jeg siger blot, at integreret grafik, som er 4x "bedre" (hvis ikke mere) end hvad PS3'eren er født, i dag ikke leverer noget bemærkelsesværdigt, i forhold til den samme tidsperiode.

Derfor mener jeg også, at nVidia har taget det første vigtige skridt, nemlig en (tilsyneladende) mere energieffektiv teknologi - min bekymring er blot, om motivationen er "forkert".

Truslen fra AMD, tror jeg ikke umiddelbart på.


Gripen90
 
Senior Skribent
Tilføjet:
22-04-2014 15:15:14
Svar/Indlæg:
15982/637

#7 amen.

Det eneste jeg rigtig ærger mig over, er af jeg meget gerne vil have en erstatning for mit 680,jeg synes dog ikke de nuværende highend er pengene værd.

780. Er penge ud af vinduet, og jeg er ikke sikker på jeg gider rode med et 290x som i mine øjne er et rimelig svagt produkt i forhold til varme udvikling og strøm forbrug.

Men tanken om at vente næsten et helt år, er meget deprimerende ☹

wolver skrev d. 22-04-2014 12:57:44


Personlig er erfaring er at du roligt kan opgradere fra GTX 680 til GTX 780 i dag uden større overvejelser.
1) Næste alle solgte GTX 780 i dag er fabriks overclockede så du får minimum 10% merydelse med oven i hatten i forhold til reference GTX 780 kort.
2) Du kan stadig få GTX 780 kort med nVidia kampagne dealen så gør købet mere attraktivt (hvis du sælger spil koderne evt).
3) Du kan sælge dit GTX 680 ml. 1200-1400kr. Købe et GTX 780 til ca 3300kr med kampagne spil. Sælge spillene for ca 200-300kr, Så altid i alt har du måske give 1700kr for dit nye GTX 780.

Eller du kan afsøge brugt markedet og spare mere.

Personlig da synes jeg det var mere penge ud af vinduet da jeg udskiftede mine GTX 580 kort med GTX 670, men jeg synes jeg fik langt bedre valuta og ydelse for kronerne da jeg skiftede GTX 670'erne ud med GTX 780 kort - og det var da priserne lå på den anden side af 4000kr.


#9: AMD var temmelig meget selv skyld i at de lige skulle oppe 40% fan speed til 47% fans speed før at Boost clock kunne holdes stabilet mens det betød noget mere larm. Har selv hørt 40% vs 47% fan speed på reference køleren og der er forskel. Dertil den (udskyld mig) elendige undskyldning af en reference køler der larmer og laver temperaturer helt op til 95*c hvis ikke man selv er ferm på fingrene og laver en blæserstyringsprofil.
Så jo lige fra start hullerne var AMD med til at spænde ben for dem selv. Producenterne ville rigtig gerne hurtigere have kort med 3parts kølere ud, men det kom først i slutningen af december.
Havde AMD bare haft en proper reference køleløsning eller givet lov til 3parts køling hurtigere, så havde AMD fået en langt større bid af kagen end de gav sig selv lov til.
Havde man smækket nvidia's Titan/GTX780 reference køler på AMD R9 290X så havde de haft en formiddabelt kort ! også i forhold til OC ved blot at hæve temp target fra 80*c til 90*c kunne der have været endnu højere core boost muligheder.


Svaret blev redigeret 1 gang, sidst af Gripen90 d. 22-04-2014 15:17:38.


#14
las
 
Elitebruger
Tilføjet:
22-04-2014 15:19:51
Svar/Indlæg:
2151/51
Hvis jeg absolut skulle købe noget 28nm var det 780 Ti eller 290X, men jeg venter helt sikkert til 20nm.

Personligt så synes jeg bestemt ikke forskellen er særligt stor fra 680/770 til 780 non-Ti:




http://www.techpowerup.com/rev...



Svaret blev redigeret 1 gang, sidst af las d. 22-04-2014 15:22:30.


NoNig
 
Elitebruger
Tilføjet:
22-04-2014 15:51:05
Svar/Indlæg:
23132/740
-> #13

Det med køleren er jeg 100 % enig med dig i.

Det jeg henviste til, var blot det med priserne.

R9 290 og R9 290X, havde en lanceringspris på hhv. $ 400 og $ 550. Hvilket der burde svare til ca. kr. 2.800,- og kr. 4.200,- (begge, plus/minus lidt).

I Danmark ser det ud til, at de har holdt priserne ret godt.

Kr. 3.500-4.000,- for de større modeller (uanset om det var nVidia eller AMD) er jo set før.

Men så vidt jeg har forstået på det, er Europa vist sluppet udenom problemet med priserne der skød i vejret - men jeg kan tage fejl.

Det var mere dét jeg henviste til. Havde AMD eks. kunnet sælge R9 290X til omkring de kr. 3.000,- så havde det været ligemeget med kølingen (fordi div. producenter selv kunne smide en bedre køler på, og stadigvæk retfærdiggøre en pris på op til kr. 3.500,-). Men, så vidt jeg kan se, så ligger de fleste 290X'ere og roder rundt ved omkring 3.5K, og så forsvinder en stor del af incitamentet.


wolver
 
Elitebruger
Tilføjet:
22-04-2014 16:03:16
Svar/Indlæg:
652/24
#13 Hvad for et GTX 780 ville du i så fald anbefale, hvis man skulle ud og "Investere?"

Jeg har fået anskaffet mig en Dell 2713hm, og jeg synes at mit nuværende 680, halter lidt i hjørnerne..

Jeg havde selv overvejet et 290(x) Tri-x fra Sapphire men du har en god pointe med de 780'er, spørgesmålet er bare om de kan matche performance.


Gripen90
 
Senior Skribent
Tilføjet:
22-04-2014 16:12:06
Svar/Indlæg:
15982/637
#15: Jeps så forstår jeg din intention og er helt enig :) Ja Danmark slap uden om hele "mining" frenzy'en som et af de få lande, mens den stadig rasede i bl.a Storbritannien. Efter R9-290 var umulige at skaffe røg R9-280X priserne i vejret. Fra $299 til $399.

#13 Hvad for et GTX 780 ville du i så fald anbefale, hvis man skulle ud og "Investere?"

Jeg har fået anskaffet mig en Dell 2713hm, og jeg synes at mit nuværende 680, halter lidt i hjørnerne..

Jeg havde selv overvejet et 290(x) Tri-x fra Sapphire men du har en god pointe med de 780'er, spørgesmålet er bare om de kan matche performance.

wolver skrev d. 22-04-2014 16:03:16

Altså om du vælger AMD eller nVidia er lidt hip som hap da begge nok skal gøre arbejdet.
Af alle de GTX 780 kort jeg har haft i hænderne er jeg allermest glad for Palit GTX 780 Super Jetstream kortet. Det er mere stille end mine tidligere Asus GTX 780 DirectCU II OC og MSI GTX 780 TwinForzr OC. Dertil er kortet blandt de højest pre-overclockede fra fabrikken af og yder blot en 5-7% under et GTX 780Ti reference kort lige ud af æsken.


Ciric
 
Elitebruger
Tilføjet:
22-04-2014 16:28:12
Svar/Indlæg:
1881/22

-> #11

Jeg tror du misforstår mit budskab så 🙂

Hvis ikke optimeringen af softwaren spiller sammen med hardwaren, vil man opleve netop det som Tomshardware erfarede med de to 295X2'ere.

Én ting er, at en quad-GPU opstilling ikke skalerer ligesom single til dual. Men, at der ligefrem ikke er nogen skalering (enddog negativ) er et kæmpeproblem.

Man kan så stille spørgsmåltegn ved deres metode og alt det der. Men når en teknologi ikke fungerer som den er tænkt, om så det er quad-GPU eller en kaffemaskine, er der noget helt galt.

Igen. Jeg er hverken chipdesigner eller spiludvikler. Men, når vi ser minimal fremgang, på 7 år (endda længere tilbage, hvis man vil), til trods for væsentligt kraftigere GPU'er der ikke leverer markant anderledes teknologi, så er der noget galt.

Hence min sammenligning med PS3'erens grafikydelse og Intels Iris Pro. Jeg er klar over, at der er tale om forskellige platforme, teknologier, osv.

Men for mig, som forbruger og "entusiast", synes jeg at der er noget som er stagneret. Især når man så husker på, at PS3'eren blev lanceret i '07, formelt afløst i '13.

Jeg siger ikke, at hverken spil eller grafikkort ikke har udviklet sig i løbet af den periode. Jeg siger blot, at integreret grafik, som er 4x "bedre" (hvis ikke mere) end hvad PS3'eren er født, i dag ikke leverer noget bemærkelsesværdigt, i forhold til den samme tidsperiode.

Derfor mener jeg også, at nVidia har taget det første vigtige skridt, nemlig en (tilsyneladende) mere energieffektiv teknologi - min bekymring er blot, om motivationen er "forkert".

Truslen fra AMD, tror jeg ikke umiddelbart på.

NoNig skrev d. 22-04-2014 14:38:22

Skulle nok have quoted. Det var ikke et svar til dig, men til #10.

Men du har da bestemt en pointe.

Jeg er bestemt heller ikke udvikler, men man kunne jo have en drøm om at der generelt blev lavet mere parallel kode, både til gpu og cpu, således at scaling ved flere kerne, bliver mere linær.

Det kan meget vel være at jeg er helt forkert på den, men det er der jeg ser det største potentiale for udvikling.


Svaret blev redigeret 1 gang, sidst af Ciric d. 22-04-2014 16:42:27.


NoNig
 
Elitebruger
Tilføjet:
22-04-2014 17:17:24
Svar/Indlæg:
23132/740
-> #18

1) Arh 😳
2) Enig 🙂


eviling
 
Overclocker
Tilføjet:
22-04-2014 19:29:26
Svar/Indlæg:
442/14
AMD er også i gang med at kigge på 20nm, dog med cpu/gpu samtidigt, hvorefter de ville hoppe over på FinFET.

Så kan være at TSMC's problemer er det sædvanlige, hvor der er for stor efterspørgsel i opstartsfasen.



Kraminius
 
Erfaren rotte
Tilføjet:
23-04-2014 13:51:25
Svar/Indlæg:
8/3
#4 Mantle er jo et godt eksempel på at optimere, så det ikke kræver 2-3 superkort for at spille et spil. 😉


bamselinen
 
Elitebruger
Tilføjet:
23-04-2014 13:51:54
Svar/Indlæg:
2145/218
#16 Jeg synes personligt mit GTX780 OC fra MSI er et glimrende kort og det kan fåes hos komplett for 3300 ca. Det trækker alt hvad jeg smider efter det på min 2560x1440 skærm

https://www.komplett.dk/msi-ge...



EasterKanin
 
Elitebruger
Tilføjet:
23-04-2014 13:54:40
Svar/Indlæg:
4337/121
#21 Eller den nye Nvidia driver som optimere ydelsen i DX 11


NoNig
 
Elitebruger
Tilføjet:
23-04-2014 14:15:13
Svar/Indlæg:
23132/740
-> #21

Lad os nu se.


KleitusIV
 
Redaktør
Tilføjet:
26-04-2014 19:41:44
Svar/Indlæg:
4295/306
#21 Mantle er mere optimering så man ikke behøver super CPU for at spille og ikke så meget GPU. Den får AMD's CPU'er til at yde tæt på de store Intel CPU'er i spil. 🙂


Shadowhunter
 
Elitebruger
Tilføjet:
01-05-2014 17:33:39
Svar/Indlæg:
5474/39
Jeg er også godt tilfreds med mit gfx.
Det er så 35% langsommere end toppen idag. Igen, så sparede jeg også 1500 kroner i forhold til 780, 290/290x nypris. Jeg stadig glad for middel grafikkort. Det var endda med gamle chip fra 6-serien.

Jeg spiller ikke så tit sidste nye spil, så gør ikke så meget gfx ikke rigtigt er fra nyeste generation.


Svaret blev redigeret 2 gange, sidst af Shadowhunter d. 01-05-2014 17:36:22.