Low-end Grafikkort dødsdømt

Diverse d.  11. september. 2010, skrevet af kim_c 26 Kommentarer.  Vist: 1649 gange.

Intel og AMD vil hver frigive en ny generation af processorer i de kommende seks måneder, med kraftfulde integrerede grafik chips som helt kan/vil ændre formen på grafikkortet markedet. De fleste analytikere er enige om, at Low-end/entry level grafikkort markedet er en døende del af grafikkort markedet.

Efter som de første benchmarks fyldt med Intels Sandy Bridge, allerede er spredt på internettet, behøver man ikke at være en videnskabsmand for at regne ud, at diskrete budget grafikkort er i knibe. Analytikere har nu konkluderet, at allerede i 2012 vil markedet for diskrete budget kort være mere eller mindre væk.

Dette er som man nok kan gætte et direkte resultat af de kraftfulde grafikchips der forefindes i den næste generation af processorer/APU'er. Vi har allerede set, hvordan Intel Sandy Bridge har ydelse på lige fod med AMD's mindre Radeon HD 5450, og vi kan være temmelig sikker på, at AMD's Fusion APU vil blive endnu hurtigere.

Hvis oplysningerne om Radeon HD 6300 serien "Caicos" er rigtige, kunne dette meget vel være AMD's sidste reelle budget serie af diskrete grafikkort. Ydelsen af kortet er rygter til at være omkring 30% bedre end det gamle Radeon HD 5450, et niveau vi forventer AMD's integreret grafik chip vil være i stand til matche i deres nye Fusion APU uden problemer.


Samlet er dette en god nyhed for forbrugerne, ikke mindst dem ,der er interesseret i kraftfulde grafikkort, men for NVIDIA er det endnu et marked der forsvinder.

kilde:
http://www.maximumpc.com/article/news/report_entry_level_discrete_graphics_extinct_2012
Darth
 
Superbruger
Tilføjet:
11-09-2010 15:06:49
Svar/Indlæg:
813/49
"de første benchmarks fyldt ed Intel Sandy Bridge er allerrede spræt på internet" ? 😲

Men bortset fra det, så måtte det jo komme. Og er vel egentlig godt nok.


Retro
 
Elitebruger
Tilføjet:
11-09-2010 15:21:17
Svar/Indlæg:
1643/172
Tja det betyder vel bare at man skal bruge alle sine udviklings penge på hi-end og ikke på low-end / medium-end. Måske meget godt for Nvidia, da kan fokuser mere på det de en gang var gode til, frem for at være alt for fokuseret på at lave navne ændringer på ældre GPU'er til nye modeler 😀

Svaret blev redigeret 1 gang, sidst af Retro d. 11-09-2010 15:21:56.


timx0474
 
Enthusiast
Tilføjet:
11-09-2010 15:39:02
Svar/Indlæg:
108/5
tror i at de nye indbyggede gfx'er kan køre physx 😉 ?


martinbg
 
Elitebruger
Tilføjet:
11-09-2010 16:42:55
Svar/Indlæg:
2076/119
"NVIDIA er det endnu et marked der forsvinder."

muhahahaha 😎


SoundWave
 
Elitebruger
Tilføjet:
11-09-2010 16:48:30
Svar/Indlæg:
3011/103
Det lyder jo egentlig godt. Så kan der købes en kontor-pc, hvor der også kan spilles lidt uden, at købe et separat grafikkort.

Noget andet er korrekturlæsningen på den nyhed. Jeg havde svært ved at læse den, og måtte hakke mig igennem flere steder.

Men ja, det kan se sort ud for NVIDIA.


Walenad
 
Elitebruger
Tilføjet:
11-09-2010 17:35:56
Svar/Indlæg:
1906/25
Ja - men udviklingen går jo også fremad får low-end grafikkort...

Det som idag er high-end er om 1 år mid-end. Og det som idag så er mid-end er tilsvarende low-end om et år....

Og så kommer der noget HELT nye High-end grafikkort, der kræver 2kw PSU :)



Gripen90
 
Senior Skribent
Tilføjet:
11-09-2010 19:54:32
Svar/Indlæg:
15982/637
Hvorfor ser det sort ud for nVidia ? ser vi på Low-end GFX så er det da klart ATi domineret !. Jeg ser ikke rigtig nogen low-end nVidia kort andet end GF6200, FX5200 og de nyere GF220 som deres konkrete low end versioner, dette mens ATi har et hav af forskellige modeller fra alle serier HD3450, 3470, 4250, 5450, 5470 og mange flere.


NoNig
 
Elitebruger
Tilføjet:
11-09-2010 21:40:13
Svar/Indlæg:
23132/740
-> #6

Syn's det er latterligt. De burde fokusere mere på løsninger der trækker det samme som vores gamle computere med MMX-CPU'er og 3Dfx Voodoo II kort, med samme brugsglæde som dengang og morgendagens øjenguf.

Det er "altid" nemt bare at skrue forbruget op når ydelsen skal makses ud. Men kunne det ikke være federe at man fik løsninger der slugede mindre, men ydede tilsvarende godt?

Jeg siger, lad os komme ned på 250-300 Watt igen, og så skal spillene være lige så gode som 'Quake II' og 'Half-Life' var det dengang, men til gengæld med grafik der får 'Crysis' til at ligne et Duplo-spil...


Kasseren
 
Elitebruger
Tilføjet:
11-09-2010 23:42:39
Svar/Indlæg:
1814/48
@7 Jeg tror at du skal kigge på markedet for mobile grafikløsninger for at se problemet.

Her har nVidia levet fedt af at Intels løsninger har haft store mangler, der gjorde nVidias low-end løsninger attraktive. Problemet er at når Intels grafikløsninger bliver gode nok for flertallet, hvilket de allerede nu er ved at være, så er det kun mindretallet der har behov for at der sidder en kraftigere grafikchip i computeren.


Gripen90
 
Senior Skribent
Tilføjet:
11-09-2010 23:56:57
Svar/Indlæg:
15982/637
#9: Jo på den led, men jeg læste det som desktop løsninger, ikke møntet på mobile for der gælder det jo stadig mere batteri tid dvs, stadig ikke specielt stærke GPU'er, men ydelse pr. watt mæssigt er nVidia stadig bedre end Intels GMA 450.


Mathis77
 
Elitebruger
Tilføjet:
12-09-2010 01:14:46
Svar/Indlæg:
6293/359
#8 hørt - hørt!! :)

det har jeg sagt i snart 3 år - det med de store klodsede gfx's med deres enorme energiforbrug...tja - det er en forkert udvikling

lad os få noget fixt nu - hvad med Fusion - kunne man ikke lave det bedre end 6XXX serien og for fremtiden? Eller er der stadig for mange penge i det, at man skal købe gfx hvert år for at "være med"? 😳


martinbg
 
Elitebruger
Tilføjet:
12-09-2010 10:07:06
Svar/Indlæg:
2076/119
#11

du behøver jo ikke købe nyt grafikkort hver gang der kommer en ny serie ;)


DEVIL_DK
 
Elitebruger
Tilføjet:
12-09-2010 13:43:26
Svar/Indlæg:
6531/410
Faktisk er det da en fed ide så kan vi spare på strømmen i 2d mode også kan vi få
dedikeret 3d kort som i de gode gamle dage.


Mathis77
 
Elitebruger
Tilføjet:
12-09-2010 13:59:51
Svar/Indlæg:
6293/359
#12 nej det har du da ret i - hvis ellers ati kunne lave ordentlige drivere, så ville jeg med et 5850 XFX heller ikke skrive sådan noget....


JenneMeister
 
Overclocker
Tilføjet:
12-09-2010 14:39:18
Svar/Indlæg:
11/1
Ja de burde kæmpe med strømforbruget! man ender jo med en 5000w PSU O: det stiger og stiger bare hver gang et nyt kort kommer. hvis næste genration af kort ville blive lige så gode og bruge halvt så meget strøm ville det jo være herligt (:


DetIkkeVidereVilde
 
Superbruger
Tilføjet:
12-09-2010 15:11:10
Svar/Indlæg:
77/9
Så vidt jeg husker faldt strømforbruget da drastisk ved overgangen af 4xxx til 5xxx. ihvertfald ved idle. og på toppen brugte de da heller ikke mere end de gamle..

#14 hva mener du med de ikke laver ordenlige drivere ? husker kun" der var engang " deres drivere er da mindst ligeså gode hvis ikke bedre end nvidias idag, syns JEG..


voidwalker
 
Superbruger
Tilføjet:
12-09-2010 16:30:13
Svar/Indlæg:
199/22
#16 Det er da ikke så længe siden der kom drivere der fik et par ATI computere til at bryde sammen.

eller?


Mathis77
 
Elitebruger
Tilføjet:
12-09-2010 16:33:12
Svar/Indlæg:
6293/359
#16 at der er så meget fuck med dem.. der er mange som har problemer:
http://hwt.dk/forumthread.aspx...

det ser derimod ud til at nvidia er mere fremme i skoene med drivere nu.


DEVIL_DK
 
Elitebruger
Tilføjet:
12-09-2010 19:17:18
Svar/Indlæg:
6531/410
sært jeg kør ren amd+ati og har ingen probemer.

Svaret blev redigeret 1 gang, sidst af DEVIL_DK d. 12-09-2010 19:25:28.


Mighty_Mike
 
Superbruger
Tilføjet:
12-09-2010 19:27:44
Svar/Indlæg:
170/6
#17

Link?

Derimod var det Nvidia der frigav en driver der dræbte GPU'er på stribe:
http://www.zdnet.com/blog/hard...

Quote:
"Here's the official statement from NVIDIA:

We are aware that some customers have reported fan speed issues with the latest 196.75 WHQL drivers on NVIDIA.com. Until we can verify and root cause this issue, we recommend that customers stay with, or return to 196.21 WHQL drivers. Release 196.75 drivers have been temporarily removed from our Web site in the meantime."

#18

Ligesom en hel del folk med GTX460 har problemer, bl.a. med at kortene underclocker og at de crasher?

http://forums.anandtech.com/sh...
http://www.overclock.net/nvidi...
http://www.rage3d.com/board/sh...


De har begge problemer med driverne, så det der med at Nvidia > AMD er noget pjat.


Mathis77
 
Elitebruger
Tilføjet:
12-09-2010 20:14:23
Svar/Indlæg:
6293/359
#20 ja du har nok ret - vi burde alle købe en PS3 i stedet... 😉


NoNig
 
Elitebruger
Tilføjet:
12-09-2010 21:11:49
Svar/Indlæg:
23132/740
-> #21

Dygtig dreng 😀 ❤


Mathis77
 
Elitebruger
Tilføjet:
12-09-2010 21:15:55
Svar/Indlæg:
6293/359
#22 amen det er da utroligt at man kan købe verdens hurtigste GFX til 4500,- og så have så meget bøvl med det pga. en lille driver-ting... det holder jo ikke en meter - hvorfor ringer vi ikke bare til..... 😳 😀
det kan man ikke byde folk, ATI, Nvidia


wotex
 
Nørd
Tilføjet:
13-09-2010 14:32:34
Svar/Indlæg:
5/1
Ok

Mon ikke Nvidia så begynder at udvikle bundkort eller processor i stædet for ?


NoNig
 
Elitebruger
Tilføjet:
13-09-2010 15:22:35
Svar/Indlæg:
23132/740
-> #24

Det kunne være interessant at se dem lave CPU'er - men det kan vist kun lade sig gøre, hvis de opkøber VIA 🙂


Mighty_Mike
 
Superbruger
Tilføjet:
13-09-2010 22:02:22
Svar/Indlæg:
170/6
#25
Med mindre der er sket noget ved FTC forliget, så mister Via licensen hvis de bliver opkøbt. Det vil ikke blive overført til den nye ejer.

Så der er næsten kun en mulighed i ARM, og så noget emulering.

Kunne ellers være spændende med endnu en spiller på markedet :)