R600 kommer til at sluge 250W

Litteratur d.  18. september. 2006, skrevet af Emillos
Vist: 660 gange.

Emillos
 
Overclocker
Tilføjet:
18-09-2006 15:37:02
Svar/Indlæg:
14079/622
Kommentar til nyhed på: http://www.overclocking.dk/new...
MullE2
 
Superbruger
Tilføjet:
18-09-2006 15:54:03
Svar/Indlæg:
541/22
Jeg skal ganske enkelt ikke ha et grafikkort fra den genaration.

Det bliver for varmt. Og tænk på hvor meget mere jeres computer kommer til at trække. x( :l


sko
 
Elitebruger
Tilføjet:
18-09-2006 15:54:08
Svar/Indlæg:
1954/464
hold da op...

skal jo snart investere i en lille privat vindmølle....

og hvilke køleløsninger skal vi så ikke også bruge...

men får nok ikke råd til at alligevel... :p



#3
CV
 
Overclocker
Tilføjet:
18-09-2006 16:00:06
Svar/Indlæg:
466/9
Haha nice. :e Det jo næsten lige så meget som nForce chipsets fra nVidia. :i :e


Emillos
 
Overclocker
Tilføjet:
18-09-2006 16:00:35
Svar/Indlæg:
14079/622
..pludselig virker nVidia's Geforce7-serie som endnu bedre køb :00

Man kan kun håbe på, at der kommer mainstream grafikkort der er til at køle ned..250W er jo næsten umuligt at fjerne på luft. Der skal da i hvert fald en køler ala Thermalrights SI 120 på, for at holde skidtet under 90-100 grader..


/edit
->#3

Haha :e


..jeg køber kun VIA's produkter for fremtiden.. de er sgu de eneste fornuftige :P


karse
 
Elitebruger
Tilføjet:
18-09-2006 16:11:24
Svar/Indlæg:
52/5
theinquirer er også en virkelig troværdig kilde :00


#6
CV
 
Overclocker
Tilføjet:
18-09-2006 16:16:10
Svar/Indlæg:
466/9
#5 De i hvert fald gode til at starte rygter. :p


Emillos
 
Overclocker
Tilføjet:
18-09-2006 16:17:28
Svar/Indlæg:
14079/622
Jeg kan ikke lige se, hvorfor nyheden skulle være utroværdig, #5.. der har gennem længere tid været snakket om et skyhøjt strømforbrug på de første DX10-kompatible grafikkort.

TheINQ er måske ikke den mest pålidelige kilde, men de har da ret for det meste. Meget af det de skriver derinde er jo også gisninger, og ikke bekræftede facts. Dog lader det til at minde om facts denne gang, imho. Men man kan da kun håbe på de tager fejl :)


-Timberwolf-
 
Superbruger
Tilføjet:
18-09-2006 16:22:25
Svar/Indlæg:
421/13
Den der og så en Prescott? :e

Tidligere CPU'er har f.eks. lært os at Watt-forbrug en ting, og en anden er selve varmeafgivelsen. Ikke at Prescott ikke var varm, men der var da andre der ikke var vildt varme, som alligevel trak rigtig meget strøm.

Men mon ikke cascade-fyrene vil være ligeglade, hvis, det nu yder bedst?

Men skidt udvikling IMO.. :l


#9
CV
 
Overclocker
Tilføjet:
18-09-2006 16:25:32
Svar/Indlæg:
466/9
#8 Udvilkingen bliver forhåbentlig bedre når de finder ud af at lave 65nm (eller er det 60 som er næste step?) kerner. :)


Lars_hjort
 
Elitebruger
Tilføjet:
18-09-2006 16:40:02
Svar/Indlæg:
1900/33
#9 Mener at have læst det næste skridt bliver 80nm hvertfald for G80! Og ellers bliver det vel 65nm som AMD/Intel

/Lars


-Timberwolf-
 
Superbruger
Tilføjet:
18-09-2006 17:00:23
Svar/Indlæg:
421/13
#10

"It is the 80 nanometre chip and we talked about it here saying a 65 nanometre chip is simply not possible for such a complex chip."

;)


Bam4k
 
Superbruger
Tilføjet:
18-09-2006 17:17:15
Svar/Indlæg:
685/107
heh #8 sådan en sammen med en prescott var også lige min første indskydelse.

Jamen jeg tror sgu ejg holder fast i mit 7900gt indtil videre. Det burde da også kunne følge et års tid endnu.


LlamaAgenten
 
Elitebruger
Tilføjet:
18-09-2006 17:19:35
Svar/Indlæg:
1129/113
Ah ja, så behøver man ikke at tænke på varmeregningen mere. Bare en stor blæser ind i kabinettet, som puster luften ud, så skal den nok kunne varme de omkring liggende lokaler. :P


Illuminati
 
Elitebruger
Tilføjet:
18-09-2006 17:24:22
Svar/Indlæg:
10398/435
muha :e PSU'er bliver også en populær vare!

Godt at have et extra sæt vand liggende...



Jacob_Lindberg
 
Overclocker
Tilføjet:
18-09-2006 18:18:11
Svar/Indlæg:
137/16
"Til gengæld regner man med, at næste generation af grafikkort, R600 & G80, bliver over dobbelt så hurtige som den nuværende. Spørgsmålet er så bare, om det er det værd.."

Hvis de gør det. Bliver det BESTEMT det værd!!!

Over dobbelt så hurtige! arrrr :f 8)


#16
Lars
 
Elitebruger
Tilføjet:
18-09-2006 18:19:16
Svar/Indlæg:
3712/44
Hmm, et fint vinter-grafikkort. Håber der kommer en sommer-udgave også :e

Altså 250W er jo helt hen i vejret, det er jo hvad et helt system bruger.... ja i alt fald et "normalt" system... :e


Jacob_Lindberg
 
Overclocker
Tilføjet:
18-09-2006 18:20:40
Svar/Indlæg:
137/16
Btw er der nogen der ved hvornår næste generation kommer til Danmark?


#18
CV
 
Overclocker
Tilføjet:
18-09-2006 18:58:48
Svar/Indlæg:
466/9
#10 G80 og R600 er da 80nm ? ?:(


M.Thomsen
 
Elitebruger
Tilføjet:
18-09-2006 18:59:45
Svar/Indlæg:
4112/53
#13 Ja, især hvis F@H får nosset sig færdige, og laver en F@H klient til GPU'en også, så tror jeg nok at der kommer til at blive stor omsætning i de der nye 200W GFX-PSU'er, især til bench-oholikerne. :e

#16 hehe. Tror du at din PC P&C stadigvæk vil kunne følge med, når du får sådan et sæt R600 GFX i CF, og så også får dem OC'et kraftigt?
Tror sq de GFX vil komme til at få samme problem som Pressy, clock begrænsningen bliver på kølingen, ikke den potentielle clock mulighed. :e


#20
Lars
 
Elitebruger
Tilføjet:
18-09-2006 19:34:09
Svar/Indlæg:
3712/44
#19 > Tjaeh, der er 17A på 12V rail til hvert kort, så man må da håbe at den sluger lidt fra 5V også, for ellers får jeg da problemer... :e

Men jeg er nu også mildest talt spændt på at se hvordan pokker de får kølet et grafikkort der bruger ~250 W. Selv om det jo ikke er det hele der bliver afsat som varme, så burde det altså stort set slet ikke kunne lade sig gøre.


Emillos
 
Overclocker
Tilføjet:
18-09-2006 19:41:40
Svar/Indlæg:
14079/622
->#20

Nej det lyder helt tosset :l..

Men mon ikke de bare pisser lidt på temperaturerne ?
Kan lige forestille mig 110-120 grader load på sådan et kort..
Lol, kan lige forestille mig alle de tråde der i så fald vil komme om temperaturer :e..i dag er der jo nogle der synes 60 grader på GPUen er slemt :)..

/Edit
Hvad med at dedikere en Zalman reservator til sådan et kort.. så kan man også lave kaffe og the imens :D;)


Stensgaard
 
Elitebruger
Tilføjet:
18-09-2006 20:25:59
Svar/Indlæg:
2620/327
#20 Selvom det ikke nødvendigvis bliver lige på kernen/heatspreaderen, må det hele vel et eller andet sted blive til varme - hvor skulle energien ellers blive af?


heinrich
 
Elitebruger
Tilføjet:
18-09-2006 20:35:43
Svar/Indlæg:
1341/56
#22 der er jo en stor del der bliver brugt til regne kraft, hvis alt blev til varme ville den jo ikke kunne lave nogle beregninger... det er kun spild energien der bliver til varme.




red_martians
 
Moderator
Tilføjet:
18-09-2006 20:48:51
Svar/Indlæg:
7881/1165
#20: Hvis det sluger 250watt, så får det ret sikkert en ektern strøm forsyning. Det er set tidligere og vil være helt berettiget til sådan et monster.
Tror også der er en grund til de 250watt. Hvis det passer er den eneste forklaring jeg kan komme på er en dualchip-løsning ligesom nvidia's GX2-kort. Det vil være helt umuligt for en chip at komme af med den varme jo mindre der sidder et peltier-element eller er kompressor-kølet.

Jeg tror altså kun på det, hvis der er to eller flere grafikchips :)



M.Thomsen
 
Elitebruger
Tilføjet:
18-09-2006 21:14:18
Svar/Indlæg:
4112/53
#20 Jeg er godt nok også spændt på at se hvilken køleløsning de vælger.

#24 Det er der noget om. Men i princippet kan de 250W jo godt blive leveret af den alm. PSU, da de 75W kan leveres igennem PCI-E, og så er det "kun" 175W (Ca. 14.5A fra +12V), hvilket de fleste PSU'er kan trække, men så må der heller ikke være ret meget andet på samme rail.

Hvis der er hold i de 64 pipes, så bliver arealet på kernen STORT, MEGET STORT, og så skulle det nok være muligt at kunne få varmen væk via heatpipes, til en kraftig profil i stil med den på 7900GTX, bare i kobber, så tror jeg nu nok det vil kunne lade sig gøre med en luftkøling af 250W, men jeg tror #21 har en pointe i, at vi må til at acceptere GPU temperature på 110-120 grader.


heinrich
 
Elitebruger
Tilføjet:
18-09-2006 21:26:58
Svar/Indlæg:
1341/56

#25
er ret sikker på at du ikke kan trække så mange watt fra et stik, uden at bryde specifikationerne på stikket.... kunne godt tage fejl, men tror der vil være risiko for at det ville smelte....


Kim
 
Superbruger
Tilføjet:
19-09-2006 00:23:49
Svar/Indlæg:
772/50
ej den her gang må theinq være på svampe, altså de plejer ha nogle ok nyheder før vi høre om det, men ja altså hvad regner de selv med? hvor usandsynligt er det ikke lige?


#28
OEA
 
Superbruger
Tilføjet:
19-09-2006 08:53:47
Svar/Indlæg:
1711/30
#16 <I>Hmm, et fint vinter-grafikkort. Håber der kommer en sommer-udgave også

Altså 250W er jo helt hen i vejret, det er jo hvad et helt system bruger.... ja i alt fald et "normalt" system... </I>

:00 :p :e


#29
OEA
 
Superbruger
Tilføjet:
19-09-2006 09:00:06
Svar/Indlæg:
1711/30
#0 :o #21 :00 ;)


[G.N.U.]
 
Elitebruger
Tilføjet:
19-09-2006 09:55:42
Svar/Indlæg:
2175/21
suk hvis det er trenden, så ser vi en mørk tid i møde....havde regnet med at det ville blive bedre og mit 7800gt så skulle skiftes, men det ser da umiddelbart ikke ud til det bliver nu.....

men vi mangler lidt hard facts...the inc har måske taget fejl af nogle tal eller lagt forbrug og varmeafgivelse sammen.....eller kigget på et voldsomt overclocket kort.


Emillos
 
Overclocker
Tilføjet:
19-09-2006 18:17:00
Svar/Indlæg:
14079/622
En lille opdatering.. 180W lyder trods alt mere realistisk :)


[G.N.U.]
 
Elitebruger
Tilføjet:
19-09-2006 19:54:41
Svar/Indlæg:
2175/21
en anden type end pci-e ...DEN tror jeg sq heller ikke på.....så får de jo ikke solgt nogen kort :)


#33
Lars
 
Elitebruger
Tilføjet:
19-09-2006 20:22:11
Svar/Indlæg:
3712/44
Haha, ja ok, nu er The Inq da vist snart helt ude i hampen.... :e

Tror lige jeg venter og ser hvad der sker..... :00 :e


#34
OEA
 
Superbruger
Tilføjet:
19-09-2006 21:28:36
Svar/Indlæg:
1711/30
#31 #33 Year


Lars_hjort
 
Elitebruger
Tilføjet:
19-09-2006 23:10:03
Svar/Indlæg:
1900/33
#32 Kunne være de tror det bliver PCI-e 2.gen, men det tvivler jeg stærkt på da der skulle gå nogle år før det kommer!

/Lars


Stensgaard
 
Elitebruger
Tilføjet:
20-09-2006 22:14:46
Svar/Indlæg:
2620/327
Fantastisk - så har The Inquirer fået to nyheder ud af ét rygte, som ikke passede.