Mere nyt om nVidia G70

Litteratur d.  13. maj. 2005, skrevet af red_martians
Vist: 925 gange.

red_martians
 
Moderator
Tilføjet:
13-05-2005 08:48:59
Svar/Indlæg:
7881/1165
Kommentar til nyhed på: http://www.overclocking.dk/new...
Emillos
 
Overclocker
Tilføjet:
13-05-2005 09:41:55
Svar/Indlæg:
14079/622
Hmm ATi´s kort kommer endnu engang til at bruge mindre strøm end nVidias :l
Men who cares, bare vi får noget power :e :P

Forresten, det er et fake billede, right ?



KingGuru
 
Elitebruger
Tilføjet:
13-05-2005 09:46:26
Svar/Indlæg:
624/173
strøm = varme = sansynligvis sværre at oc...
så herinde er vi sq nok en del der tænker over det



Emillos
 
Overclocker
Tilføjet:
13-05-2005 09:48:37
Svar/Indlæg:
14079/622
Som NoNig siger: "Der findes ikke varme CPUer(må så være GPU´er nu), kun dårlig køling" 8)

hehe..:)



red_martians
 
Moderator
Tilføjet:
13-05-2005 09:55:57
Svar/Indlæg:
7881/1165
tjaaa... lad os nu se.. Jeg tror at begge grafikkort bliver nogle varme-monstre.. Og synes snart det er irelavant om det ene bruger 10w mindre end det andet, når vi har rundet 100w. Jeg har personligt hørt en mand fra ATi sige, at de ville satse stort på bærbare GPU'er for fremtiden. Om det betyder at deres R520 er kold, eller om det er én afledning der mere fortæller at R520 bliver en skandale som ATi prøver at komme uden om..... Tjaaaa det ved jeg ikke! :00 :00



KingGuru
 
Elitebruger
Tilføjet:
13-05-2005 10:03:49
Svar/Indlæg:
624/173
man kan altid køle ned..
men skal man oc langt ind i helvede, og holde det lydløst.. så er det ikke let



kibidk
 
Elitebruger
Tilføjet:
13-05-2005 10:30:23
Svar/Indlæg:
722/35
Ny grafikchip igen - ja ja, den er jo nok god at have når man skal skrive mails.



Selas
 
Elitebruger
Tilføjet:
13-05-2005 11:37:02
Svar/Indlæg:
2845/91
Dette billede udtrykker vist meget godt min mening :D






Emillos
 
Overclocker
Tilføjet:
13-05-2005 11:37:07
Svar/Indlæg:
14079/622
->#5
Rigtigt nok..

->#6
Ja det er så din mening ;)



Jesse
 
Superbruger
Tilføjet:
13-05-2005 13:25:53
Svar/Indlæg:
1373/34
#7

Helt enig :e



KingGuru
 
Elitebruger
Tilføjet:
13-05-2005 14:40:28
Svar/Indlæg:
624/173
hvor mange betaler ikke selv el regningen her?

jeg gør pt. ikke.. men hvis jeg kommer til det, så er der fanerme penge at sparre på en maskine der kører 27/7



KingGuru
 
Elitebruger
Tilføjet:
13-05-2005 14:40:55
Svar/Indlæg:
624/173
(jeg er på speed... det er der de 3 ekstra timer i døgnet kommer ind)



Kim
 
Superbruger
Tilføjet:
13-05-2005 17:46:00
Svar/Indlæg:
772/50
#11 LOL :P

syns også folk tænker for lidt over hvor effektivt deres HW er i forhold til strømforbrug(hvis det var lidt den vej du tænkte #10)..hvertfald når vi ser i det lidt mere high end.. også derfor folk stadig køber Presscott efter min mening fordi ja ser vi i effektivitet i forhold til strømforbrug sååå ser det hele lidt mere anderledes ud, også hvad du pludselig skal gi for tingende der "matcher" hinanden, lige nu betaler jeg heller ikke min strøm, men jeg fik da at vide at min computer(engang jeg havde vapochill) Åd lige en tand eller mange W for meget. tror jeg bliver glad for C&Q når jeg engang skal flytte hjemmefra... for ja der er det endnu sikrer end det er nu ALDRIG vil jeg ligge penge til den "effektivitet" Presscott giver i forhold til strøm... men det bedste ville da helt sikkert være en Turion(med Bærbar chipset istedet for et ganske almindeligt desktop et!!) eller en Pentium-M.



Kim
 
Superbruger
Tilføjet:
13-05-2005 17:55:22
Svar/Indlæg:
772/50
argh kom sq til at gå over i CPU'er :P hehe. nu får vi jo se håber det ikke bliver om at bare lave det kraftigste og skide på strømforbrug... det er slemt nok at Intel prøver på sådan noget(kunne ikke lade være)



Ne0nfarven
 
Superbruger
Tilføjet:
13-05-2005 20:09:53
Svar/Indlæg:
286/51
Jeg syns jeg blir overrasket hver gang de store fyre (nVidia og Ati) fyrer deres HW af. Håber sQ på lavt forbrug i fremtiden, så når en dag selv skal betale, ikk behøver grave mig i lån og ekstra arbejde.

Mon de en dag går samn og laver et nVati kort??? ;)



KingGuru
 
Elitebruger
Tilføjet:
13-05-2005 20:36:06
Svar/Indlæg:
624/173
til det kan jeg kun svarre med et klart og utvetydigt...... Måske..

nej.. hvis jeg skulle vælge mellem 2 knap så ubekendte der begge representerede værdien "usansynlig" ville jeg nok vælge den ene.

sagt på en 3 måde..
jeg skal have øl NU



Kio_Liex
 
Superbruger
Tilføjet:
13-05-2005 22:55:09
Svar/Indlæg:
260/54
Det bliver fedt at se hvor meget de nye kort kommer til at yde...
Og Tom H kan nok køle dem ned :e

Omkring strøm betaling, så kan jeg sige at jeg (og kæresten) selv betaler for vores strøm, men omvendt så er der ikke en radiator i "IT-lokalet" så det er computerne der skal varme det op... og el-måleren sidder 5 meter fra hvor jeg sidder nu, sååååå jeg holder da lidt øje med den, og det er ikke computeren der æder meget... Det er når der vaskes og der bliver lavet mad... Jeg kan sige at jeg har en måler på det stik hvor alle computerne sidder på, og der ligger forbruget ca på 400w (måske mindre) når tre computere og to skærme kører...



#17
Benz
 
Superbruger
Tilføjet:
14-05-2005 01:00:21
Svar/Indlæg:
434/11
#16 Ja se, det er jo den største misforsåelse folk laver, når de skal regne ud hvad der virkelig koster. Du har ikke prøvet at sidde i 24 timer og kigget på hvor mange gange el måleren drejer rundt der ? :e

400 watt er ikke overdrevent - det kunne være værre. Bare min skærm bruger 140 watt. Geforce 6800Gt bruger over 100 watt når der spilles 3d spil. ja, og så er der resten af computeren - og dem har vi 2 af.

Efterhånden som jeg har fået nyere cpu'er og GFX er mine computere ikke længere tændt 24/7 eller 27/7 ;) Min elregning er over de sidste 4 år, 3 doblet pga det - selvom jeg både har vaskemaskine, opvaskemakine stor fryser - samt at jeg laver varmt mad hver dag.

Så skal der ikke udregnes meget, før man finder synderen.



Eminence
 
Overclocker
Tilføjet:
14-05-2005 02:17:34
Svar/Indlæg:
83/4
Bliver vel ca. i "klasse" med performance fra den der xbox..

hvis i har set Screenshots fra de spil der kommer.



#19
Kiwi
 
Overclocker
Tilføjet:
14-05-2005 10:14:38
Svar/Indlæg:
93/0
For et par måneder siden blev nVidia spurgt om deres fremtidsplaner. Der blev sagt at de ikke forventede de store hastighedsforøgelser, og man primært ville fokusere på at lave bedre SM3.0 support. Det lyder heller ikke sandsynligt at nVidia allerede nu vil komme med en ny arkitektur, NV40 har ikke været billig at udvikle og at droppe den efter et år ville være absurd (for ikke at nævne omkostningerne ved at have 3 forskellige arkitekturer på markedet samtidig). Så hvis G70 er dobbelt så hurtig vil det mest sandsynlige være flere pipelines, evt. lavet med en crossbar for at spare transistorer som på 6600GT (de 8 pipelines deles om 4 ROP's). Med 24 pipelines, evt. et par ekstra vertex pipes og optimeringer i SM3.0 ville man i teorien kunne opleve dobbelt ydelse i nye spil. Det vil nok være mest tydeligt i forbindelse med HDR, hvor den nuværende NV40 arkitektur ikke ligefrem imponerer med sin hastighed.
En anden mulighed er at kæde nyheden om 6800 dual kort sammen med nyheden om G70, det kunne jo være der de får deres dobbelte ydelse fra. 2x NV40 på hvert kort (med opdateringer i SM3.0 og baseret på 0.11nm) og med mulighed for at køre SLI, vil ihvertfald give god mulighed for nye rekorder i 3Dmark05. Det vil også betyde mindre produktions omkostninger for nVidia, da en NV40 med 24 pipes vil have stor die size, selv på 0.11nm. Ovenstående passer til en hvis grad, også med historien om at nVidia bad PC-sig om at hæve grænsen for hvor meget strøm et singlekort må trække.
Btw. 0.09nm produktions teknik er moden, nVidia har bare ingen erfaringer med low-k og det kræves der ved 0.09nm. Derfor vælger de sikkert at holde sig til 0.11nm foreløbig. Men det er værd at bemærke at ATI før har været forsigtig, og startet med at bygge mellemklasse modellerne med den nye teknik (RV360). Denne gang vælger de åbenbart at starte med en high end GPU, om det er fordi de føler sig pressede eller om det er fordi de føler sig sikre ved jeg ikke.



Emillos
 
Overclocker
Tilføjet:
14-05-2005 10:29:26
Svar/Indlæg:
14079/622
->#19
Jeg tror også du har ret i at de videreudvikler nv40-arkitekturen..
Men ATi derimod kommer med noget nyt, er ejg ret sikker på :)



Retro
 
Elitebruger
Tilføjet:
14-05-2005 10:59:38
Svar/Indlæg:
1643/172
Hvad jeg har hørt skulle G70 være en dual core udgave af NV40 med 16 pips på hver en chip. Dette skulle være en meget besparende medtode at udvikle GFX kort på. Da man så har mulighed for at smide flere kerner på en chip og derved få mere power. Men om det passer det ved jeg sku ikke. Det må vi jo se her om 2 til 3 uger når det kommer. Men ellers vil jeg da give #19 ret i at det ville koste for meget at lave en helt ny chip fra bunden op. Men på den anden måde så ved jeg at Nvidia og ATI har de næste 3 gernertationner af GFX kort under udvikling allerede nu. Men fordi det ikke give penge nok at udsende det hurtigeste kort med det samme så holder man lidt igen med at hoppe over andre gennerrationer af GFX kort. F.eks. blev R500 fra ATI til den nye GFX motor i Xbox 360 og oprindeligt skulle den havde været til PC. Så her tænker jeg på at de bare droppede deres R500 og gik vider til R520 og derved hoppe en generation af GFX Kort over.

Men alt dette er jo bare rygter. Så jeg vil nok først se G70 køre med 2x performens af et 6800 Ultra før jeg tror på det.



red_martians
 
Moderator
Tilføjet:
14-05-2005 11:51:17
Svar/Indlæg:
7881/1165
#20: Det gjorde nvidia også med NV30.... Jeg vil se resultater før ejg tror på det!!



TwinX!
 
Superbruger
Tilføjet:
14-05-2005 12:04:53
Svar/Indlæg:
909/40
Jeg synes godt nok det er billigt for så'n et grafikkort :e
Ca. 3k for et topgrafikkort, jawh jeg klager sq ik :e



red_martians
 
Moderator
Tilføjet:
14-05-2005 12:19:26
Svar/Indlæg:
7881/1165
#23:
Den pris skal du ikke regne med.... Geforce6800U er vist sat til 399$... der er ret langt op til 549$ derfra!!



Emillos
 
Overclocker
Tilføjet:
14-05-2005 12:27:11
Svar/Indlæg:
14079/622
->red_martians
Så GeforceFX er en videreudvikling af geforce4 ?

Måske derfor serien var noget bæ :P..



Retro
 
Elitebruger
Tilføjet:
14-05-2005 12:44:46
Svar/Indlæg:
1643/172
#25 Det red_martians prøver at sige at er at Nvidia hoppede over NV30 aka 5800 serien og gik med det samme over til NV35 aka FX 5900 serien. Grunden til dette var fordi at NV30 blev alt for varm og larmede alt for meget. Lidt som ATI gør nu med deres R500 som blev til xbox 360 gfx moter og begyndt på at lave R520 til PC.

Der bliver slet ikke snakket noget om at Geforce 4 blev viderudviklet til FX serien.



TwinX!
 
Superbruger
Tilføjet:
14-05-2005 13:12:21
Svar/Indlæg:
909/40
#24 Ahh, okay... så forstår jeg det bedre, fordi ellers skulle jeg fandme ha et :P



#28
Kiwi
 
Overclocker
Tilføjet:
14-05-2005 13:14:58
Svar/Indlæg:
93/0
#21 jep, der har været nogle rygter om dual core. Det er dog vigtig at huske på at dualcore ikke vil give hastigheds forøgelser som vi ser det med dual core CPU'er, GPU'er har allerede mulighed for at køre flere tråde. Så hvis nVidia kommer med et dual core design er det, som du siger, kun af økonomiske årsager. Der er ingen andre fordele ved at dele chippen op, tværtimod kan det give en del problemer.
Mht. til ATI skulle R520, som vi venter på, være en overgangs model fra R420 til R600. R520 skulle ikke have samme unified shader arkitektur som R500 har, men derimod en traditionel vertex /pixel pipe opbygning. R600 skulle så blive en Xbox 360 GPU til PC, men det er alt sammen rygter. Men igen virker det lidt underligt at man vil lave en model som hverken er det ene eller det andet. Så måske er R520 blive bygget over samme arkitektur som R500, og ikke en blandings model. Men vi må vente og se....
#25 FX serien var en vidre udvikling af Ti4xxx, der blev bare smidt en (dårlig) SM2.0 del på pipelinen. Det gælder dog alle firmaer, hverken R520 eller G70 er blivet bygget helt fra bunden. De tager det de kan fra det gamle design og forsøger at forbedre det. Det ville tage alt for lang tid, og koste for mange penge at starte helt forfra hver gang.



Illuminati
 
Elitebruger
Tilføjet:
15-05-2005 01:18:51
Svar/Indlæg:
10398/435
#17, eh så be'r du også selvom den strømregning...

Jeg målte min XP2100+ / 9800SE / 2xHDD, uden skærm. Den brugte 120watt.

Nu måler jeg min A64 3500+ / 6800GT / 3xHDD, uden skærm. Den bruger 78watt.

Begge målinger var i idle state. A64 får lov til at køre cool&quiet.

Hvis vi snakker om load state, så skal tallene nok rykke sig en del :)



[G.N.U.]
 
Elitebruger
Tilføjet:
15-05-2005 04:25:45
Svar/Indlæg:
2175/21
problemet er så at det ikke er så mange timer lortet faktisk kører på fuld knald (ja svært at forsvare at man sidder med sådan et system, når man sjældent har brug for det)



1_2_know
 
Elitebruger
Tilføjet:
15-05-2005 18:11:31
Svar/Indlæg:
3169/185
IMO tror båede G70 og R520 er overvurderet totalt.... Regner med en 33% forøgelse TOPS - ikke det med +100% som der hævdes fra alle kanter..

Men et prisfald ville sq være godt - var fandeme dyrt at købe x850XT :\ - Håber at når jeg skal have R520 oveni hatten at det kan lade sig gøre for 3000 eller deromkring :(

- 12k



Emillos
 
Overclocker
Tilføjet:
15-05-2005 20:32:51
Svar/Indlæg:
14079/622
->#31
Håber det ikke.. og tror det faktisk heller ikke :) (naiv, måske ;))

Men vi må heller ikke glemme at nye og hurtige high-end kort betyder gode mid-end kort også ;)



DjeavleN
 
Elitebruger
Tilføjet:
16-05-2005 05:23:37
Svar/Indlæg:
2959/206