Test: Leadtek WinFast PX8800 GTX TDH

Grafikkort, NVIDIA  d.  04. december. 2006, skrevet af red_martians 18 Kommentarer.  Vist: 13890 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: pc-netto.dk
DK distributør: Sympia A/S

Design/Layout


Først lægger man mærke til længden, derefter køleren, og så til sidst undres man over de to strømstik. Dette kort er tydeligvis stort på alle måder. Der er en flot stil over designet, med sort metal-front, sort print, og en sort køler.



Køleren er lavet således at den suger luft inde fra kabinettet og puster en del af det ud af kabinettet. En stor del ryger også ud i kabinettet, af de luft-huller der sidder i toppen, og ud af åbningen der ligger under køleren. Blæseren af af Radialtypen. Den har rigtig mange små finner frem for få store som f.eks. ATi bruger.
Radialtypen har vundet rigtig meget indpas i grafikkort-kølere, da dens design langt bedre kan udnyttes i et fladt design, som grafikkort ofte er.
Selve profilet er med fine Aluminiumsfinner og en tyk aluminiumsbund med en kobberklods lige over processoren. Varmen fordeles i hele det store profil med mindst to tykke heatpipe.



Printet er ca. 27cm langt, hvilket er meget langt, og jeg prøvede derfor af, om jeg kunne installere det i mit kabinet. I mit lille silverstone Sugo, manglede jeg ca. 3cm. Så prøvede jeg i mit Antec Super Lanby, men heller ikke her var der gevinst. Jeg manglede ca. 1cm, og i begge tilfælde er det harddisk-buret der var i vejen. Så overvejer man at købe geforce8800, så tjek lige kabinettet først. Ellers køb det mindre 8800GTS, der skulle blive en del kortere.



Hvis man vil montere en anden køler er der to forskellige hul-løsninger. Begge nye, men med tiden vil der helt sikkert komme løsninger hertil. Vandkøling er nok det første vi ser, da anden luftkøling ikke burde være nødvendigt. De små skruer i midten holder fast på chippen, så dem vil vi ikke røre ved.



Der er to strømstik. Grunden hertil har vi fået at vide, er pga. at specifikationerne siger max 75watt per stik. 75watt gennem bundkortet og 75watt per stik beviser at dette kort virkelig kan sluge strøm. kortet har altså mulighed for at sluge 225watt i alt. Vi ser også at nvidia har gjort klar til et 8pin strøm-stik.
Vi kan ikke tjekke rammene efter, men det er ret sikkert 1.1ns muligvis fra samsung. 1.1ns kan kører 909Mhz (DDR1818 ) Grunden til det gode gæt, er at kortet kører med GDDR3-ram, og der findes ganske enkelt ikke hurtigere GDDR3-ram end 1.1ns. Derefter skal man have fat i det dyrere GDDR4.



Udadtil er der en S-video-tilslutning, hvor der også er mulighed for tilslutning af component ved hjælp af en dongle.
Derudover er der to DVI-i-stik hvor der kan bruges dongles til almindelig D-sub(blåt-skærm-stik)
Vi synes det er rigtig ærgerlig at der ikke findes HDMI-udgang. Den nye multi-udgang/indgang der i dag findes på de fleste LCD og plasma-fjernsyn. Grunden til at vi synes det er ærgeligt er, at kortet understøtter kopibeskyttet indhold fra Blu-ray og HD-DVD, og kan afspille film i virkelig høje opløsninger. Alle udgange er afskærmmede, og skulle sammen med den nye eksterne skærm-chip, forbedre billedkvaliteten.





Støj





Her ser vi kortets store force... trods at det sluger strøm, og trods dets kæmpe størrelse, er køleren noget af det mest støjsvage vi nogensinde har hørt. Den eneste standard-køler jeg har haft, der kan måle sig med den, er den der sidder på Geforce7800GTX-512 og Geforce7900GTX/GTO. Køleren er altså virkelig effektiv og der burde ikke være grund til at skifte den ud, jo mindre man virkelig tænker store tanker om vandkøling osv. Det er virkelig et fantastisk stykke arbejde der er gjort med den køler, når man sammenligner med hvad vi ellers har set.





Vi må straks sige, at den køler er virkelig lækker. nVidia kan virkelig et eller andet med deres køling, også selvom strømforbruget ligger på grænsen af det absurde. Derefter må vi kritisere størrelsen. Jeg havde intet kabinet det passede i. Selv i mit Antec-kabinet, sad harddisk-stativet i vejen. Man skal altså tænke over, om man har plads inden man køber det. Derefter er det lidt trist at et kort med HDCP-support og alle de nye fine HD-effekter, ikke har HDMI-udgang. Det burde være standard på den nye generation grafikkort. Klistermærket er vist det mest kedelige vi har set på disse kølere, men venter man lidt kan kortet anskaffes med et lidt mere attraktivt design. Men klistermærker kan fjernes, og det gør ikke køleren dårligere. Kortet får 3point ligesom de andre Geforce8800GTX kort vi har haft inde til test.
Woodgnome
 
Elitebruger
Tilføjet:
04-12-2006 12:03:25
Svar/Indlæg:
1888/560
De mindste skruer holder chippen på plads? Er det kun mig der synes det lyder lidt forkert ?

Man kan da forhåbentlig ikke afmontere hele kernen ved at skrue et par skruer ud ?:(



Illuminati
 
Elitebruger
Tilføjet:
04-12-2006 12:10:41
Svar/Indlæg:
10398/435
jo, vidste du ikke det? kan du ikke huske den gang man talte om at gpu skulle være ligesom cpu'er, altså kunne skiftes. den tid er nu.



Gripen90
 
Senior Skribent
Tilføjet:
04-12-2006 12:21:20
Svar/Indlæg:
15982/637
#2: Det startede nu med 3Dfx Rampage (Spectre) :00
http://www.thedodgegarage.com/...



Illuminati
 
Elitebruger
Tilføjet:
04-12-2006 12:34:29
Svar/Indlæg:
10398/435
#3, lol cool.. det var nu bare for at drille #1.. men specter1k blev aldrig lanceret?



Gripen90
 
Senior Skribent
Tilføjet:
04-12-2006 12:39:50
Svar/Indlæg:
15982/637
#4: Nej desværre :(



Jesper
 
Elitebruger
Tilføjet:
04-12-2006 16:49:52
Svar/Indlæg:
2072/117
Kunne være så fedt hvis de lavede det fremover!!!

Tror dog ikke økonomisk at ATI og Nvidia går med på det, da de sikkert kan tjene flere penge på at sælge flere kort...

Men det kommer nok anpå prissætningen :)



elkoger
 
Overclocker
Tilføjet:
04-12-2006 17:23:56
Svar/Indlæg:
4/5
Undre mig lidt der ikke blíver kommenteret lidt på ASUS kortet´s ydelse i NFS carbon, ved godt at testen handler om leadtek kortet, men sådan en stor afvigelse kunne man da godt lige nævne..... Nogle der evt kan fortælle mig hvorfor ydelsen i dette spil ligger så langt fra de andre resulatet, så ASUS kortet ellers følger super godt med.



OEA
 
Superbruger
Tilføjet:
04-12-2006 17:35:35
Svar/Indlæg:
1711/30
#7 Det har vel noget med driveren at gøre , da HWT blev nød til at skifte driver osv og kortet LIGE kommet ud :i. Nu har der lige været lidt pusterum til at smide en opdateret driver ud der udnytter kortene bedre :).

Håber overstående kan bekræftes værende rigtigt.



red_martians
 
Moderator
Tilføjet:
04-12-2006 17:41:49
Svar/Indlæg:
7881/1165
#7... Det er en driver-bug.. nævnte det vist i MSI-artikelen. Der er også flere andre små fejl med den driver vi benyttede til ASUS.. bl.a. var en bunke af egenskaber deaktiverede, som så er aktiveret i den nye driver... Underligt nok uden at ydelsen er faldet. :)



Illuminati
 
Elitebruger
Tilføjet:
04-12-2006 18:00:08
Svar/Indlæg:
10398/435
elkoger, du kan regne med at boardene grundlæggende er 100% ens. Boardet bliver produceret 1 sted og chippen et andet sted. "Producenterne" putter et klistermærke på, brander biosen og laver bundle/pakke til. ;)



#11
OEA
 
Superbruger
Tilføjet:
04-12-2006 18:21:55
Svar/Indlæg:
1711/30
#8 Year , så var jeg ikke helt galt på den :f.



elkoger
 
Overclocker
Tilføjet:
04-12-2006 18:45:20
Svar/Indlæg:
4/5
mange tak for jeres svar :D

Jeg regner nemlig med at købe det omtalte asus kort så måtte lige høre :D



#13
OEA
 
Superbruger
Tilføjet:
04-12-2006 22:11:22
Svar/Indlæg:
1711/30
#12 Selvtak :)



Rednalyn2
 
Superbruger
Tilføjet:
05-12-2006 01:40:44
Svar/Indlæg:
558/73
Forstår ikke hvorfor anmelderen lader det trække ned, at der ikke er HDMI udgang på grafikkortet...

DET ER IKKE MULIGT!!!

HDMI er den nye udgave af det velkendte SCART stik!

HDMI's funktion er at overføre billede+lyd.
HDMI består altså af DVI + lydsignal.
HDMI's billedekvalitet er altså den samme som DVI's! (Det er jo det samme!!!)

DA gfx ikke kan levere lyd, er det derfor ikke noget man vil have på et gfx!


FORSTÅR I DET SÅ? 8)


Så stop med at nævne det kritisk!

Man har jo aldrig før brokket sig over manglende SCART udgang på fortidens gfx :)


KOM IND I KAMPEN!



#15
foo
 
Elitebruger
Tilføjet:
05-12-2006 07:27:22
Svar/Indlæg:
1685/240
#14 - du skal da ikke komme og sige det ikke er muligt når det nu engang er det - så gider man da slet ikke tage resten af dit indlæg seriøst...

Der er lavet flere X1600, X1900 samt GF7600 og GF7900 kort med HDMI, og der findes endda hele lister over dem...
http://www.htpcnews.com/forums...

Grunden til HDMI er så efterspurgt som det er, er pga. HDCP - det er mange gange nemmere med HDMI, når nu man har et TV med HDMI, så er det nemmere med et HDMI-HDMI kabel...

Du nævner selv SCART, og det man gjorde i "fortiden" var jo netop at føre nogle kabler op til lydkortet, og et ned til en S-Video udgang på GFX, og så havde du pludselig lyd og billede på dit TV - man kunne fristes til at sige at der på en måde faktisk var SCART i de gamle GFX. Alt var en smule anderledes dengang, det var først og fremmest nogle helt heltandre signaler man ønskede overført, der var ingen beskyttelse i form af kryptering el. lign. på signalerne overhovedet...

So... Long story short, man kan SAGTENS få HDMI på sit GFX, og grunden til det efterspørges i så høj grad er pga. HDCP, som er krævet for HD-TV, og Vista kræver det også (så vidt jeg husker) - så derfor er det oplagt at der skal være HDMI for nemhedens skyld på de nye GFX, da der SAGTENS kan lægges lyd ned på GFX, det gøres vha. et lile kabel fra lydkortet...

Så for at citere dig selv

Kom ind i kampen!



red_martians
 
Moderator
Tilføjet:
05-12-2006 17:22:03
Svar/Indlæg:
7881/1165
Desuden siges der at ATi's kommende R600 (Radeon X2000-serie) får HDMI standard. Det er endda muligt at lægge lyd på grafikkortet, det er der også flere producenter der har. Enten med indbyget lydhip eller med en overførsel fra lydkort eller bundkort. :)



#17
k0ch
 
Superbruger
Tilføjet:
07-12-2006 10:40:10
Svar/Indlæg:
160/10
Ligesom et lydkort der er monteret på grafikkortet?
tror jeg ikke helt forstår.



#18
foo
 
Elitebruger
Tilføjet:
07-12-2006 11:28:15
Svar/Indlæg:
1685/240
#17 - ja de kan sagtens vælge at ligge en lydchip på graffikkortet, hvis det er det de vil, men det mest almindelige er bare at sætte et stik på (enten ekstern eller internt på kortet) og så føre lyden ind den vej...