Zotac's GeForce GTX 460X2 grafikkort lige om hjørnet

Litteratur d.  27. oktober. 2010, skrevet af kim_c
Vist: 1488 gange.

kim_c
 
Overclocker
Tilføjet:
27-10-2010 20:25:09
Svar/Indlæg:
49/70
Som de fleste nok kunne gætte måtte der før eller siden komme en x2 version i GTX 4xx serien og ZOTAC ser ud til at have en kandidat

Læs hele nyheden her: http://hwt.dk/newsdetails.aspx...
Supermadzen
 
Overclocker
Tilføjet:
27-10-2010 20:35:21
Svar/Indlæg:
287/19
Hvor er det strategisk dumt at der ikke er HDMI. Håber at en anden producent kommer med et som har HDMI :)


kim_c
 
Overclocker
Tilføjet:
27-10-2010 20:39:10
Svar/Indlæg:
49/70
#1 Gigabyte lavede faktisk et der havde det, men det var dog et GTX470x2 og det var kun en prototype... 🙂


noaim
 
Elitebruger
Tilføjet:
27-10-2010 20:55:05
Svar/Indlæg:
2155/123
Glæder mig til at se ydelsen samt prisen :D


matt??
 
Elitebruger
Tilføjet:
27-10-2010 21:09:16
Svar/Indlæg:
5600/32
Hvor er det dog et ufatteligt grimt print.. 😛


Elitesoldaten
 
Elitebruger
Tilføjet:
27-10-2010 21:17:57
Svar/Indlæg:
2038/121
#4 Haha, ja det er det egentlig.. forhåbentlig pænere med køler på.


SoundWave
 
Elitebruger
Tilføjet:
27-10-2010 21:33:40
Svar/Indlæg:
3011/103
Nice. Det er lige noget jeg kan bruge, hvis ellers prisen ikke bliver for høj.


slaske6
 
Elitebruger
Tilføjet:
27-10-2010 21:51:59
Svar/Indlæg:
1571/39
det er sku grimt at se på helt sikkert og med den nf200 chip bliver det sgu nok meget varmt


mikam
 
Superbruger
Tilføjet:
27-10-2010 22:17:30
Svar/Indlæg:
873/25
Når der kommer en 2x2gb ram version kan vi tale om det 😉


Fearless
 
Elitebruger
Tilføjet:
27-10-2010 22:27:21
Svar/Indlæg:
4536/104
#8 du glemmer at ram mængden ingenting har at sige, hastigheden er langt vigtigere, og dertil kommer at 2x GTX460 neppe er hurtige nok til at udnytte den ram mængde, da vi skal op i nogle syge opløsninger for at det gir bare lidt med den mængde ram.


mikam
 
Superbruger
Tilføjet:
27-10-2010 22:59:35
Svar/Indlæg:
873/25
#8
Nu sagde jeg det faktisk ikke for at være smart, men fordi jeg har 2 gb versionen af 460 og der kan jeg se at i min opløsning, 1900x1200, kan jeg sagtens komme over 1 gb i ramforbrug i nogle spil. Så så syg behøver opløsningen heller ikke at være :) Det er bare at åbne GPU-Z mens man spiller, så kan man selv følge med i forbruget.

Så det er ikke bare et markedsføringsstunt. Jeg mærkede faktisk også at GTA4 flød bedre da jeg fik skiftet 1gb modellen ud med en 2gb.


LlamaAgenten
 
Elitebruger
Tilføjet:
27-10-2010 23:03:07
Svar/Indlæg:
1129/113
300-350W? Har 5970 ikke et forbrug på 294W? Vil det dermed sige, at 460X2 får et højere forbrug, med til tider ringere ydelse?

Sjovt.


Supermadzen
 
Overclocker
Tilføjet:
27-10-2010 23:18:48
Svar/Indlæg:
287/19
#11 Jo men ydelses forskellen er ikke ligeså stort som prisforksellen. Da dette kort nok kommer til at koste 3000-3300,-


LlamaAgenten
 
Elitebruger
Tilføjet:
27-10-2010 23:31:44
Svar/Indlæg:
1129/113
#12

Men i det lange løb vil man spare lidt kulstof.


Gripen90
 
Senior Skribent
Tilføjet:
27-10-2010 23:34:13
Svar/Indlæg:
15982/637
Altså dette er jo bare et tilfælde af at "vi gør det fordi vi kan, ikke fordi det er nødvendigt". Lidt igen som Gigabyte's dual GF6600GT back in 06.

Det ser dog interessant ud, men jeg tror mere det er en gimmick end noget der reelt vil sælge, og det tror jeg også Zotac er klar over. To GTX 460 768mb el. 1GB kort til under 3000Kr er for flere mere indbydende... og nu hvor 2x GTX 470 kan fås til ca prisen af eet GTX 480 ja sååå...


noaim
 
Elitebruger
Tilføjet:
28-10-2010 08:43:14
Svar/Indlæg:
2155/123
Syntes nu ikke den print er så grim igen, den er sort som folk vil have det og som JEG vil have det 😀


da9els
 
Chefredaktør
Tilføjet:
28-10-2010 08:51:37
Svar/Indlæg:
4438/91
#1 .. Det er da genialt at det ikke er HDMI. Det ville da være en begrænsning af kortet fra starten af?! Du kan da bare smide en adapter på hvis du vil have lyden med.


noaim
 
Elitebruger
Tilføjet:
28-10-2010 08:53:54
Svar/Indlæg:
2155/123
#16 hvorfor ville det blive en begrænsning?

Skal siges jeg ikke helt er inde id et HDMI lort 😛


Svaret blev redigeret 1 gang, sidst af noaim d. 28-10-2010 08:59:05.


ScurK
 
Overclocker
Tilføjet:
28-10-2010 10:55:26
Svar/Indlæg:
170/12
Gad vide om de kan klare kølingen med en 2-slot løsning... 2 fermi og 300-350 watt bliver satme en varm sag 😲


noaim
 
Elitebruger
Tilføjet:
28-10-2010 10:59:50
Svar/Indlæg:
2155/123
uha du har ret i noget (:


ScurK
 
Overclocker
Tilføjet:
28-10-2010 14:41:57
Svar/Indlæg:
170/12
Ja, synes jeg også at jeg har 😎

De almindelige kort har rigeligt med varmeproblemer, tør slet ikke tænke på hvor stegende varm et x2 kort bliver.
En ting er selve gpu'ens temperatur, men det er de færreste der tager vrm temperaturerne med i overvejelserne - på grund af deres små heatsinks bliver de ofte meget varmere end selve gpu'en.
Når jeg overclocker mit hd 5850 og det kommer op at sluge MAX 100 watt, så bliver mine vrm 75-95 grader med blæseren på 100% - og det er endda med en ret god aftermarket køler på.

Prøv så at forestille jer nogle kort der sluger 300-350 watt!! 😲

Ved godt det er fordelt på 2 gpu'er, men stadigvæk - 150-175watt per gpu, og det er uden overclocking. Find dog på noget der kan holde, nVidia.


Svaret blev redigeret 1 gang, sidst af ScurK d. 28-10-2010 14:43:14.


#21
mazd
 
Superbruger
Tilføjet:
28-10-2010 16:09:46
Svar/Indlæg:
129/6
#20 man skal godt nok læse meget lort..
1 Mit std gtx460 blir 62 grader ved std clocks,det er det koldeste gfx jeg kan huske at ha haft over en 15 års periode..
2 Dit hd5850 har ligsom gf104 en tdp på omk 150-160w opgivet,real life svinger meget,også på nvidia kort !!
3 Har du aldrig hørt om hd5970 og gtx295 ? for ikke at nævne det fra starten defekte(vrm)4870x2 med minimum samme tdp.


noaim
 
Elitebruger
Tilføjet:
28-10-2010 16:58:20
Svar/Indlæg:
2155/123
han er bare ATI fan


ScurK
 
Overclocker
Tilføjet:
29-10-2010 10:24:27
Svar/Indlæg:
170/12
#21 + 22
Er sgu overhovedet ikke fanboy, har også haft nVidia kort. Synes bare at fermi er totalt skudt i hovedet og ubrugeligt pga den syge varme det udvikler. Derfor er det åndssvagt at lave et x2 kort baseret på den chip.
Men det er jo bare min mening - hvis du kan lide kortet kan du vel være ligeglad med min holdning. Case closed 😎


noaim
 
Elitebruger
Tilføjet:
29-10-2010 10:31:48
Svar/Indlæg:
2155/123
#23 jg syntes også det er et stort problem med den varme og det strømorbrug, men Varmen er ikke et problem hvis man smider vand på ❤ 😀


Gripen90
 
Senior Skribent
Tilføjet:
29-10-2010 12:36:30
Svar/Indlæg:
15982/637
#23: Du ignorerer jo so også komplet det faktum at Fermi ikke bare er een chip. Det er kun GTX 480 visse folk brokker sig over.
Men længe leve generalisering.


slaske6
 
Elitebruger
Tilføjet:
29-10-2010 19:09:23
Svar/Indlæg:
1571/39
#25 🤣 🤣


ScurK
 
Overclocker
Tilføjet:
01-11-2010 10:59:07
Svar/Indlæg:
170/12
#24 find en del vand ikke kan køle. Vand ftw 😎
#25 at gtx 480 er det VARMESTE kort ændrer da ikke på, at de andre fermichips også bliver utroligt varme. Men jeg orker ikke at skulle skændes med dig igen, så vi laver lige en konklusion på vores samtale:
fermi er i dine øjne fine chips, ikke noget der.
fermi er i mine øjne varme chips der blev sendt ud før de var ordentligt udviklet.

Jeg mener at du er fanboy, og du mener at jeg er en uvidende, generaliserende teenager. Skal vi komme videre? 🤡


Gripen90
 
Senior Skribent
Tilføjet:
01-11-2010 11:15:22
Svar/Indlæg:
15982/637
#27: Dine udtalelser har jo ikke givet anledning til andet indtryk.
Orke at skulle skændes ?... jeg skændes ikke, jeg diskuterer og debattere.
GTX 480 er ikke det varmeste kort der har været... den pris tager FX 5950 Ultra og især i Silent udgaverne.

Andre Fermi chips utroligt varme ? GTX 460 ses ofte koldere end HD5830. GTX 470 ligger i samme varme gruppe som GTX 275 og GTX 280. GTX 480 er oppe i GTX 295 varme (dual PCB versionen). Ergo varmen er altså ikke noget nyt. Varme har været et "issue" ved rigtig mange kort i rigtig mange år.
Forskellen består i at wattforbruget på GTX 480 nok ligger højere end hvad rimeligt er.

Fanboy eller ej, den regning må du selv stå for. Jeg gider bare ikke høre på generaliseringer og formodninger, der ikke har hold i hanke med virkeligheden.
Jeg ved godt du har haft nvidia kort, og hvad temperaturer du har haft der, skal jeg ikke kunne udtale mig om. Men med 3x GTX 470 stablet sammen er et rimelig godt worst case scenario at skulle bedømme ud fra.

Nok om det, nu vil jeg teste videre på mit HiS Radeon HD6870 1GB 😎


Svaret blev redigeret 2 gange, sidst af Gripen90 d. 01-11-2010 11:22:19.


noaim
 
Elitebruger
Tilføjet:
01-11-2010 14:22:58
Svar/Indlæg:
2155/123
#28 du rør da ikke et ATI kort nu når du er nVIDIA fanboy 😛


Gripen90
 
Senior Skribent
Tilføjet:
01-11-2010 20:20:38
Svar/Indlæg:
15982/637
#29: Nej det er korrekt, kun AMD og nVidia 😉