Test: NVIDIA Geforce 7800GT Reference

Grafikkort, NVIDIA  d.  13. oktober. 2005, skrevet af Woodgnome 7 Kommentarer.  Vist: 9570 gange.

Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Sd-Data A/S
DK distributør: Sd-Data A/S
Produktet er venligst udlånt af: http://www.NVIDIA.com
Produktet distribueres i DK af: N/A
Link til producentens website: http://www.NVIDIA.com

Teknologi og arkitektur:



GPU'en:

GPU'en i 7800-serien hedder G70. Det er en enorm chip, hvis specifikationer alene afslører at man har fat i noget særligt. Antallet af transistorer er på 302 millioner, hvilket er 80 millioner mere end GeForce 6800 Ultra's NV40 GPU. For yderligere at sætte tingene i relief har et Radeon X850XT Platinium Edition (lad os bare kalde VPU'en dér for ATI R480) "kun" 160 millioner transistorer.

Selve GPU'en er ikke meget større end NV40 og pladsen til ekstra transistorer er uden tvivl hjulpet godt på ved af ny og forbedret produktionsteknologi. Chippen produceres af TSMC, der benytter en 110 nanometer produktionsteknologi. Den mindre størrelse i forhold til NV40 (130 nanometer) giver plads til flere transistorer og samtidig gør den mindre produktionsteknologi det muligt at skrue op for clockfrekvensen. Alternativt - eller måske samtidig - vil det også kunne betyde lavere strømforbrug.

Og lad os bare kigge på strømforbruget med det samme, for her er der gode nyheder. Hvor NVIDIA næsten altid har været kendt for særdeles varme GPU'er (deres chipsets har faktisk heller ikke været en undtagelse), ser G70 ud til at være et skridt i den rigtige retning. Når systemet står idle er der mellem 5% og 15% lavere strømforbrug end et GeForce 6800 Ultra. Ved full load er der kun 3-5% at hente, men stadigvæk en forbedring. Dertil skal man jo altså huske at vi har at gøre med en langt mere kompleks chip.

Det lavere strømforbrug har også fået NVIDIA til at skrue lidt ned for køleløsningen. Man har valgt et single-slot design, der sparer plads i kabinettet. En lille detalje er at blæseren nu styres via et 4-pin stik modsat det traditionelle 3-pin, man så på 6800 Ultra. De fire ledninger kunne tyde på at NVIDIA har adopteret PWM-teknologien (Pulse Wave Modulation), der lader blæseren køre op og ned i hastighed trinløst alt efter kølebehov. Intel's har på deres nyere platforme benyttet samme teknologi.

Men højere hastighed og lavere strømforbrug - hvordan kan det hænge sammen? Den finere produktionsproces er én af forklaringerne, men ikke den fulde. NVIDIA har nemlig benyttet sig af mange af de erfaringer, man har gjort sig indenfor det mobile område. Lærdommen fra diverse GPU'er i deres "GO"-serie har betydet at G70 har flere strømbesparende features. Dette ses også når det især er når computeren står idle at der er strømbesparing at hente.

Men hvad har NVIDIA gjort? Flere ting drejer det sig naturligvis om og NVIDIA holder kortene (fik I dén?) tæt til kroppen. Først da flere review-sites afslørede at chippens clockfrekvens steg under load begyndte NVIDIA at tale. Faktum er at områderne i den komplekse GPU er clocket til forskellige hastigheder. Områderne kan også uafhængigt at hinanden variere hastigheden efter behov og derved nedsætte strømforbruget. NVIDIA har dog sagt at hvis brugerne overclocker skal de enkelte områder af chippen nok følge med i hastighed således at brugeren også udnytter sit overclock.


Features:

G70 ligner på mange måder NV40, men det er bestemt heller ikke dårligt DNA at have med sig. Først og fremmest havde NV40 fordelene i at understøtte Pixel Shader 3.0 og Vertex Shader 3.0. Begge dele er naturligvis videreført i G70. Antallet af Vertex processors er 8 imod 6 styk i NV40 og så er antallet af pixels pr. clock cyklus en halv gang større - 24 mod 16 i NV40.

Endelig er der blevet plads til en ny form for Anti-Aliasing, nemlig transparent supersampling. Der understøttes også op til 8 samples (samme som på NV40), hvor ATI begrænser sig til 6 samples.

Ellers er det småt med deciderede nye features, men NVIDIA havde rullet den røde løber ud med NV40, der var stærk her. Nu har man i stedet fået mere hastighed at arbejde med, hvilket blandt andet ses på mere båndbredde (fra 32,8 GB/s til 34GB/s) og en hurtigere chip-clock (fra 400MHz til 430MHz).

Et andet sted, hvor man vil se små forbedringer er at G70 er native PCI Express, hvor NV40 var lavet til AGP og kørte PCI Express via en bridge-connector. At data nu kører direkte forbedrer naturligvis også ydelsen da man sænker latency fordi man ikke skal igennem en ekstra chip.

Sammenlignet direkte med G70 begynder ATI's R480 chip (grundlaget for X850XT) at se en smule bedaget ud. Der mangler support for Pixel Shader 3.0 og Vertex Shader 3.0 og man kan ikke opnå Anti-Aliasing i samme kvalitet. På AA-siden mangler der også Super Sampling-understøttelse hos ATI.

Dertil kommer at NVIDIA understøtter HDR (High Dynamic Range), der ser ud til at blive meget brugt i fremtidige applikationer. En teknologi, som ATI uden tvivl vil indarbejde i deres næste super-chip. Endelig har NVIDIA's G70 (som NV40 havde det) indbygget video-processor, hvilket ATI ikke har som standard hos dem. ATI har derimod deres glimrende Theater 550 Pro video-processor at byde på.

Hvad angår NVIDIA's indbyggede video processor var den også at finde i NV40. Det tog desværre bare lang tid for NVIDIA at få softwaren færdig så brugere måtte vente i månedsvis for at få lov til at benytte denne feature. På G70 ser det ud til at samme software kan benyttes, hvilket betyder at forbrugerne kan udnytte deres GPU til dette formål fra dag ét.


Nye teknologier eller genbrug?

NVIDIA har som med chippen taget udgangspunkt i NV40 og derfor findes ingen deciderede banebrydende teknologier i G70. I stedet er det forfinede udgaver af velkendte idéer fra tidligere produkter.

Én af forbedringerne er CineFX enginenen, der nu hedder CineFX 4.0. NVIDIA har fokuseret på brugernes ønsker og med det i mente er CineFX 4.0 faktisk ét af de mest oversete elementer i G70. CineFX 4.0 handler om at give brugeren et mere flydende gameplay ved at lægge en ekstra buffer ind. Således vil brugerne hurtigt opleve at spilfornøjelsen med G70 er langt bedre end NV40 fordi minimums frameraten ikke kommer til at dykke så langt ned.



Dette er gjort ved at tilføje en ALU (Arithmetic Logic Unit) beregningsenhed til 3D-pipelinen. Både Vertex Shading og Pixel Shading vil opleve et stort boost her, fordi de komplekse beregninger ofte vil være det, der vil tvinge grafikprocessoren i knæ (hvis det ellers kan lade sig gøre med G70.). Selv siger NVIDIA at minimumsframeraten skulle kunne reduceres med mere end 30% i forhold til uden CineFX 4.0.

Den ekstra regnekraft i chippen kan naturligvis bruges til endnu bedre Anti-Aliasing og dertil har NVIDIA IntelliSample 4.0 klar. Nyt i IntelliSample 4.0 er to nye Anti-Alising teknologier: Transparency adaptive supersampling & transparency adaptive multisampling. Begge handler om at give brugeren bedre billede og er især brugbare når meget tynde objekter skal renderes med Anti-Aliasing. Eksempelvis et hegn eller et blad på en plante, hvor almindelig Anti-Aliasing ofte ikke har materiale nok at arbejde med.



Endnu en ting, der skal nævnes er PureVideo. Der er ikke mange direkte nyheder omkring G70 og PureVideo, men enkelte småting har fundet vej.Disse er dog knap så interessante, som ét af tidens hotteste buzz-words: H.264. Og imens ATI flere gange har nævnt at R520 vil understøtte H.264 har NVIDIA gået stille med dørerne. Det er der dog ikke den store grund til for NVIDIA har afsløret at G70 vil understøtte H.264 acceleration i næste generation af PureVideo softwaren. Den kommer dog desværre først sidst på året, men G70 kan altså understøtte H.264 acceleration til den tid.





Ovenstående er eksempler på PureVideo i aktion. Som det ses giver PureVideo et langt bedre billede. I begge eksempler er billedet skabere og langt mere farverigt. Det skal dog medtages at begge billeder er fra NVIDIA's PR-materiale, men teknologien virker meget interessant og bliver helt sikkert værd at følge i fremtiden.

Ovenstående er venligst sammenfattet af Klavs S.
Beaviz
 
Elitebruger
Tilføjet:
13-10-2005 09:01:58
Svar/Indlæg:
3214/18
Du skriver på side 2, at det kører 50MHz mindre end et GTX. Det passer nu ikke helt. "Normale" GTX kører 430MHz. Så det drejer sig om 30MHz. ;) :p



Woodgnome
 
Elitebruger
Tilføjet:
13-10-2005 12:16:22
Svar/Indlæg:
1888/560
#1 min fejl - det er fordi jeg bare lige kiggede på det AOpen 7800GTX jeg testede, som kører 450MHz :r

Er rettet nu :).



DTU_XaVier
 
Elitebruger
Tilføjet:
13-10-2005 17:48:37
Svar/Indlæg:
2786/120
Rigtig god test... interessant kort... rigtig godt kort til prisen... :)

#WoodGnome, kunne du overveje, at lave samme test med GFX-blæsere der sidder på de kort du tester, som du laver med CPU-kølere?? ;)

MVH.
Toke :)



Beaviz
 
Elitebruger
Tilføjet:
14-10-2005 10:20:15
Svar/Indlæg:
3214/18
#3 Kunne helt sikkert være nice med den test ja.

Jeg er dog ikke enig med Woodgnome i at køleren ikke støjer. Jeg syntes nu at min lød som en jetjager...



Woodgnome
 
Elitebruger
Tilføjet:
14-10-2005 12:56:07
Svar/Indlæg:
1888/560
#3+4 spørger jeg dumt, når jeg stiller spørgsmålet: Hvilken CPU-køler test? Er det bare de temperaturmåling jeg laver, som i hentyder til?

#4 støj er selvfølgelig en smagssag, men blæseren på det 7800GT er klart i den bedre ende af skala som de små X800 kort og 7800GTX.

Den larmer dog lidt mere end startup, men så snart driveren sætter ind sætter den jo farten ned.



Beaviz
 
Elitebruger
Tilføjet:
14-10-2005 14:08:06
Svar/Indlæg:
3214/18
#5 Det forklarer nok det hele. Jeg blev så sur på den, at den røg af før jeg overhovedet fik installeret driveren! :e



Woodgnome
 
Elitebruger
Tilføjet:
14-10-2005 17:42:06
Svar/Indlæg:
1888/560
#6 haha, så kan du lære det :e.

Jeg troede det var standard viden, at NVIDIAs GFX blæsere sætter hastigheden ned efter driveren er blevet installeret? 8)