Korrekturlæser: 
Billed behandling: 
Oversættelse: 

Pristjek på http://www.pricerunner.dk 
Produkt udlånt af: Sd-Data A/S
DK distributør: Sd-Data A/S
GPU'en i 7800-serien hedder G70. Det er en enorm chip, hvis specifikationer alene afslører at man har fat i noget særligt. Antallet af transistorer er på 302 millioner, hvilket er 80 millioner mere end GeForce 6800 Ultra's NV40 GPU. For yderligere at sætte tingene i relief har et Radeon X850XT Platinium Edition (lad os bare kalde VPU'en dér for ATI R480) "kun" 160 millioner transistorer.

Ser vi mod CPU-verdenen finder vi blot tallet endnu mere imponerende. AMD's FX-serie ligger på 105 millioner transistorer og deres dual-core X2 serie runder 233 millioner transistorer. 230 millioner er Intel's officielle tal for 840 Extreme Edition CPU'en, så der er ingen tvivl om at G70 er den mest komplekse chip vi endnu har set i en desktop-computer.

Selve GPU'en er ikke meget større end NV40 og pladsen til ekstra transistorer er uden tvivl hjulpet godt på ved af ny og forbedret produktionsteknologi. Chippen produceres af TSMC, der benytter en 110 nanometer produktionsteknologi. Den mindre størrelse i forhold til NV40 (130 nanometer) giver plads til flere transistorer og samtidig gør den mindre produktionsteknologi det muligt at skrue op for clockfrekvensen. Alternativt - eller måske samtidig - vil det også kunne betyde lavere strømforbrug.

Og lad os bare kigge på strømforbruget med det samme, for her er der gode nyheder. Hvor NVIDIA næsten altid har været kendt for særdeles varme GPU'er (deres chipsets har faktisk heller ikke været en undtagelse), ser G70 ud til at være et skridt i den rigtige retning. Når systemet står idle er der mellem 5% og 15% lavere strømforbrug end et GeForce 6800 Ultra. Ved full load er der kun 3-5% at hente, men stadigvæk en forbedring. Dertil skal man jo altså huske at vi har at gøre med en langt mere kompleks chip.

Det lavere strømforbrug har også fået NVIDIA til at skrue lidt ned for køleløsningen. Man har valgt et single-slot design, der sparer plads i kabinettet. En lille detalje er at blæseren nu styres via et 4-pin stik modsat det traditionelle 3-pin, man så på 6800 Ultra. De fire ledninger kunne tyde på at NVIDIA har adopteret PWM-teknologien (Pulse Wave Modulation), der lader blæseren køre op og ned i hastighed trinløst alt efter kølebehov. Intel's har på deres nyere platforme benyttet samme teknologi.

Men højere hastighed og lavere strømforbrug - hvordan kan det hænge sammen? Den finere produktionsproces er én af forklaringerne, men ikke den fulde. NVIDIA har nemlig benyttet sig af mange af de erfaringer, man har gjort sig indenfor det mobile område. Lærdommen fra diverse GPU'er i deres "GO"-serie har betydet at G70 har flere strømbesparende features. Dette ses også når det især er når computeren står idle at der er strømbesparing at hente.

Men hvad har NVIDIA gjort? Flere ting drejer det sig naturligvis om og NVIDIA holder kortene (fik I dén?) tæt til kroppen. Først da flere review-sites afslørede at chippens clockfrekvens steg under load begyndte NVIDIA at tale. Faktum er at områderne i den komplekse GPU er clocket til forskellige hastigheder. Områderne kan også uafhængigt at hinanden variere hastigheden efter behov og derved nedsætte strømforbruget. NVIDIA har dog sagt at hvis brugerne overclocker skal de enkelte områder af chippen nok følge med i hastighed således at brugeren også udnytter sit overclock.

Der er ingen tvivl om at denne teknologi er med til at skabe et bedre produkt og NVIDIA har uden tvivl gået stille med dørene for at ATI ikke skulle lugte lunten og kopiere idéen. Selv siger NVIDIA's PR-maskine at man ikke ville afsløre noget for at skabe mistillid hos brugerne - i stedet ville man overbevise brugerne og teknologiens fortræffeligheder når de selv havde produktet i hånden. En sandsynlig forklaring, men mon ikke man også ville undgå at et bestemt firma i Canada opdagede det?
Dragzonox
 
Superbruger
Tilføjet:
30-07-2005 12:29:09
Svar/Indlæg:
185/49
Hvorfor tager de sig ikke bare sammen og laver noget godt *hit :00



chrown
 
Elitebruger
Tilføjet:
30-07-2005 17:34:07
Svar/Indlæg:
258/28
Jeg synes det var en godt illustreret og forklaret artikel.

Sådan et par GeForce 7800 Ultra ville ikke være værst at sætte i SLI :f
Men jeg tror nu også at 7800 GTX klarer jobbet godt :00