Test: NVIDIA Geforce 7800GTX 512

Grafikkort, NVIDIA  d.  17. november. 2005, skrevet af Illuminati 4 Kommentarer.  Vist: 8872 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Sd-Data A/S
DK distributør: Sd-Data A/S
Produktet er venligst udlånt af: http://www.nvidia.com
Produktet distribueres i DK af: ..
Link til producentens website: http://www.nvidia.com

Teknologi & Arkitektur



Introduktion til Geforce 7 serien:



Vi starter med et kig tilbage på hvilke features og arkitektur-ændringer som Geforce 7 serien bragte os - denne sektion af artiklen er venligst udarbejdet af Klavs S.
Derefter ser vi på hvad denne nye 7800GTX 512 udgave har at byde på af nye tiltag. Derudover ser vi lidt dybden på selve specifikationerne af kortet og hvilke krav der stilles.
Hvis du kender alt til Geforce 7800 serien, så kan du hoppe til bunden og læse om hvad de nye ting ved 512 udgaven er. Lad os se på sagerne.



GPU'en:

GPU'en i 7800-serien hedder G70. Det er en enorm chip, hvis specifikationer alene afslører at man har fat i noget særligt. Antallet af transistorer er på 302 millioner, hvilket er 80 millioner mere end GeForce 6800 Ultra's NV40 GPU. For yderligere at sætte tingene i relief har et Radeon X850XT Platinium Edition (lad os bare kalde VPU'en dér for ATI R480) "kun" 160 millioner transistorer.

Selve GPU'en er ikke meget større end NV40 og pladsen til ekstra transistorer er uden tvivl hjulpet godt på ved af ny og forbedret produktionsteknologi. Chippen produceres af TSMC, der benytter en 110 nanometer produktionsteknologi. Den mindre størrelse i forhold til NV40 (130 nanometer) giver plads til flere transistorer og samtidig gør den mindre produktionsteknologi det muligt at skrue op for clockfrekvensen. Alternativt - eller måske samtidig - vil det også kunne betyde lavere strømforbrug.

Og lad os bare kigge på strømforbruget med det samme, for her er der gode nyheder. Hvor NVIDIA næsten altid har været kendt for særdeles varme GPU'er (deres chipsets har faktisk heller ikke været en undtagelse), ser G70 ud til at være et skridt i den rigtige retning. Når systemet står idle er der mellem 5% og 15% lavere strømforbrug end et GeForce 6800 Ultra. Ved full load er der kun 3-5% at hente, men stadigvæk en forbedring. Dertil skal man jo altså huske at vi har at gøre med en langt mere kompleks chip.

Det lavere strømforbrug har også fået NVIDIA til at skrue lidt ned for køleløsningen. Man har valgt et single-slot design, der sparer plads i kabinettet. En lille detalje er at blæseren nu styres via et 4-pin stik modsat det traditionelle 3-pin, man så på 6800 Ultra. De fire ledninger kunne tyde på at NVIDIA har adopteret PWM-teknologien (Pulse Wave Modulation), der lader blæseren køre op og ned i hastighed trinløst alt efter kølebehov. Intel's har på deres nyere platforme benyttet samme teknologi.

Men højere hastighed og lavere strømforbrug - hvordan kan det hænge sammen? Den finere produktionsproces er én af forklaringerne, men ikke den fulde. NVIDIA har nemlig benyttet sig af mange af de erfaringer, man har gjort sig indenfor det mobile område. Lærdommen fra diverse GPU'er i deres "GO"-serie har betydet at G70 har flere strømbesparende features. Dette ses også når det især er når computeren står idle at der er strømbesparing at hente.

Men hvad har NVIDIA gjort? Flere ting drejer det sig naturligvis om og NVIDIA holder kortene (fik I dén?) tæt til kroppen. Først da flere review-sites afslørede at chippens clockfrekvens steg under load begyndte NVIDIA at tale. Faktum er at områderne i den komplekse GPU er clocket til forskellige hastigheder. Områderne kan også uafhængigt at hinanden variere hastigheden efter behov og derved nedsætte strømforbruget. NVIDIA har dog sagt at hvis brugerne overclocker skal de enkelte områder af chippen nok følge med i hastighed således at brugeren også udnytter sit overclock.

Features:

G70 ligner på mange måder NV40, men det er bestemt heller ikke dårligt DNA at have med sig. Først og fremmest havde NV40 fordelene i at understøtte Pixel Shader 3.0 og Vertex Shader 3.0. Begge dele er naturligvis videreført i G70. Antallet af Vertex processors er 8 imod 6 styk i NV40 og så er antallet af pixels pr. clock cyklus en halv gang større - 24 mod 16 i NV40.

Endelig er der blevet plads til en ny form for Anti-Aliasing, nemlig transparent supersampling. Der understøttes også op til 8 samples (samme som på NV40), hvor ATI begrænser sig til 6 samples.

Ellers er det småt med deciderede nye features, men NVIDIA havde rullet den røde løber ud med NV40, der var stærk her. Nu har man i stedet fået mere hastighed at arbejde med, hvilket blandt andet ses på mere båndbredde (fra 32,8 GB/s til 34GB/s) og en hurtigere chip-clock (fra 400MHz til 430MHz).

Et andet sted, hvor man vil se små forbedringer er at G70 er native PCI Express, hvor NV40 var lavet til AGP og kørte PCI Express via en bridge-connector. At data nu kører direkte forbedrer naturligvis også ydelsen da man sænker latency fordi man ikke skal igennem en ekstra chip.

Sammenlignet direkte med G70 begynder ATI's R480 chip (grundlaget for X850XT) at se en smule bedaget ud. Der mangler support for Pixel Shader 3.0 og Vertex Shader 3.0 og man kan ikke opnå Anti-Aliasing i samme kvalitet. På AA-siden mangler der også Super Sampling-understøttelse hos ATI.

Dertil kommer at NVIDIA understøtter HDR (High Dynamic Range), der ser ud til at blive meget brugt i fremtidige applikationer. En teknologi, som ATI uden tvivl vil indarbejde i deres næste super-chip. Endelig har NVIDIA's G70 (som NV40 havde det) indbygget video-processor, hvilket ATI ikke har som standard hos dem. ATI har derimod deres glimrende Theater 550 Pro video-processor at byde på.

Hvad angår NVIDIA's indbyggede video processor var den også at finde i NV40. Det tog desværre bare lang tid for NVIDIA at få softwaren færdig så brugere måtte vente i månedsvis for at få lov til at benytte denne feature. På G70 ser det ud til at samme software kan benyttes, hvilket betyder at forbrugerne kan udnytte deres GPU til dette formål fra dag ét.

Nye teknologier eller genbrug?

NVIDIA har som med chippen taget udgangspunkt i NV40 og derfor findes ingen deciderede banebrydende teknologier i G70. I stedet er det forfinede udgaver af velkendte idéer fra tidligere produkter.

Én af forbedringerne er CineFX enginenen, der nu hedder CineFX 4.0. NVIDIA har fokuseret på brugernes ønsker og med det i mente er CineFX 4.0 faktisk ét af de mest oversete elementer i G70. CineFX 4.0 handler om at give brugeren et mere flydende gameplay ved at lægge en ekstra buffer ind. Således vil brugerne hurtigt opleve at spilfornøjelsen med G70 er langt bedre end NV40 fordi minimums frameraten ikke kommer til at dykke så langt ned.



Dette er gjort ved at tilføje en ALU (Arithmetic Logic Unit) beregningsenhed til 3D-pipelinen. Både Vertex Shading og Pixel Shading vil opleve et stort boost her, fordi de komplekse beregninger ofte vil være det, der vil tvinge grafikprocessoren i knæ (hvis det ellers kan lade sig gøre med G70.). Selv siger NVIDIA at minimumsframeraten skulle kunne reduceres med mere end 30% i forhold til uden CineFX 4.0.

Den ekstra regnekraft i chippen kan naturligvis bruges til endnu bedre Anti-Aliasing og dertil har NVIDIA IntelliSample 4.0 klar. Nyt i IntelliSample 4.0 er to nye Anti-Alising teknologier: Transparency adaptive supersampling & transparency adaptive multisampling. Begge handler om at give brugeren bedre billede og er især brugbare når meget tynde objekter skal renderes med Anti-Aliasing. Eksempelvis et hegn eller et blad på en plante, hvor almindelig Anti-Aliasing ofte ikke har materiale nok at arbejde med.



Endnu en ting, der skal nævnes er PureVideo. Der er ikke mange direkte nyheder omkring G70 og PureVideo, men enkelte småting har fundet vej.Disse er dog knap så interessante, som ét af tidens hotteste buzz-words: H.264. Og imens ATI flere gange har nævnt at R520 vil understøtte H.264 har NVIDIA gået stille med dørerne. Det er der dog ikke den store grund til for NVIDIA har afsløret at G70 vil understøtte H.264 acceleration i næste generation af PureVideo softwaren. Den kommer dog desværre først sidst på året, men G70 kan altså understøtte H.264 acceleration til den tid.





Ovenstående er eksempler på PureVideo i aktion. Som det ses giver PureVideo et langt bedre billede. I begge eksempler er billedet skabere og langt mere farverigt. Det skal dog medtages at begge billeder er fra NVIDIA's PR-materiale, men teknologien virker meget interessant og bliver helt sikkert værd at følge i fremtiden.



Noget nyt ved Geforce 7800GTX 512:



Hvad har nVidia så ændret ved deres 512 edition? Ja noget nyt er der skam sket. Lad os starte fra en ende af, chippen. nVidia har skruet drastisk op for chip hastigheden, faktisk mere end mange folk kan overclocke deres almindelige 7800GTX. Før hed hastigheden 430MHz, nu er den på 550MHz, altså en forøgelse på 28%! Chippen har stadig 24 pixelpipelines og 8 vertex - på disse udføres der 16 ROPs (antal pixeler som løber igennem pipelinen). Endvidere har nVidia fået TSMC (chip-producenten) til at lave et rework af chippen og tune fabrikationsprocessen, således at nogle af de interne data behandlingsprocesser yder bedre end før.
Det skal også nævnes at selvom Geforce 7800 serien har en memory båndbredde på 256bit, så arbejder chippen internt med en 512bit arkitektur - ligesom ATI's konkurrende kort, X1800XT.
Forøgelse af clockhastigheder burde forøge strømforbruget eksponentielt, men da chippen er blevet reworked så bruger kortet "kun" 120 watt ved peak mod før 100 watt. Derfor anbefaler nVidia stadig en PSU på 350watt med 22 ampere på 12 volt linien.

RAM'ene er også en helt ny sag. Stadig GDDR3 RAM, men denne gang er der 512MB af dem og de kører med en hastighed på 1700MHz! Faktisk er RAM'ene 1,1ns hvilket gør dem rated til at kunne køre 1800MHz, men nVidia har valgt at give dem et lille headroom, nok så at overclockerne også kan få sig lidt sjov. Vi leger også lidt med overclock i denne artikel for at se hvad man kan få ud af det.


Diagram over arkitekturen på Geforce 7800GTX.


Med fakta på bordet er forventningerne blev sat. Nu er spørgsmålet bare om kortet så kan levere ydelsen som er forventet. Det ser i hvert faldet posivitivt ud for nVidia.
Emillos
 
Overclocker
Tilføjet:
16-11-2005 22:14:38
Svar/Indlæg:
14079/622
Som det første danske site - sådan skal det være drenge :e..

Fin test, og et rigtigt lækkert kort :)

Synes 55% lyder af ret lidt, men sådan er karaktérgivningen vel generelt..



DTU_XaVier
 
Elitebruger
Tilføjet:
16-11-2005 23:35:55
Svar/Indlæg:
2786/120
Rigtig god test, kommer omkring alle relevante emner...
Vil dog sige, at karakteren er lidt lav, ikke så meget i samlet procent, men i de små tal generelt... Vil da sige, at den køler, når den kan holde kortet på 73'c ved load, og 120w, når den skal køle både RAM og kerne, er rigtig godt klaret, og nok den mest innovative stock-køler, der er set i lang tid... Før i tiden var det jo bare jo flere RPM og jo mere alu/kobber, jo bedre... Denne køler siger jo næsten ingenting... Det skal jo også tages med i betragtning af design, IMO... Ja, den fylder, men det gør stort set alle high-end grafik-kort-luft-kølere, og når man ser på hvad kortet kan og kræver, vil jeg ikke sige det er så overvældende... Det er jo næsten en Prescott på PCB ;) :e
Bare min personlige mening, en rigtig god test ellers ;)

MVH.
Toke :)



Woodgnome
 
Elitebruger
Tilføjet:
17-11-2005 08:54:54
Svar/Indlæg:
1888/560
Så lang tid produktet ikke har noget nyt eller lidt ud over det sædvanlige plejer scoren at ligge på de 50-70%. Der skal lidt til at komme op på de "gode" scores, for at undgå at alle produkter får 85% og op - men det har B@NG jo så fint skrevet om i rating artiklen :).



DTU_XaVier
 
Elitebruger
Tilføjet:
17-11-2005 17:13:17
Svar/Indlæg:
2786/120
#3 Det er jeg skam godt klar over, og folk med bare en smule fornuft i roen og penge i hånden ville da klart købe det kort, uanset om i så gav det 1 i alt undtagen ydelse ;)
Det er jo heller ikke den samlede score jeg klager over, det er de forskellige tal jeg "klager" over... Og er da fuldt ud enig i, at der skal en del til de gode tal, synes bare at nogle af tallene i denne artikel er en smule "lave" IMHO... ;)

MVH.
Toke :)