Test: Titan SLI

Grafikkort, NVIDIA  d.  04. april. 2013, skrevet af freak_master 38 Kommentarer.  Vist: 19932 gange.

Korrekturlæser: jmose
Billed behandling: freak_master
Oversættelse: jmose

Pristjek på http://www.pricerunner.dk 0,00
Produkt udlånt af: n/a
DK distributør: n/a

Test-software

 

Jeg har brugt nogle af de samme programmer jeg brugte i min AMD CrossFire test, så meget af informationen her vil gå igen, der er dog kommet nogle nye spil der kan presse GPU'en en smule mere, hvorfor jeg har valgt at skifte nogle få spil ud.

 

3Dmark03
3Dmark03 er nok kendt af de fleste overclockere og en masse brugere her på Hwt.dk. Programmet udkom den 11. februar 2003 og var det første 3Dmark program, der havde understøttelse for DirectX 9. Programmet kører nogle 3D scener igennem, som udnytter alle tilgængelige GPU'er, men har nogle 3D scener, hvor CPU'en står for at lave billederne for at teste CPU'en. Dog er det kun 3D scenerne, der bruger GPU'en der vises i den samlede score.

 

 

3Dmark05
Kender man 3Dmark03 er der stor risiko for, at man også kender til 3Dmark05. Ligesom 03 versionen bruger denne version også DirectX 9, men kræver dog Pixel Shader 2.0 i grafikkortet for at kan køre. Her køres der, også ligesom i 03 versionen nogle 3D scener hvor alle tilgængelige GPU'er bliver brugt, men også nogle 3D scener hvor CPU'en kun bliver brugt. Dog tages CPU testen ikke med i den samlede score, men får point ved siden af. Så her er den samlede score kun baseret på GPU kræfterne i systemet.

 

3Dmark06
De tre 3D scener fra 3Dmark05 er brugt, men dog blevet opdateret en smule, og Futuremark har tilføjet endnu en scene; "Deep Freeze". Der er desuden kommet nye CPU tests, og Futuremark valgte for første gang i deres 3Dmark serie at medtage CPU resultatet med i den samlede score med følgende grund: "For første gang i dens historie vil CPU resultaterne medgå i den samlede 3Dmark score. Dette er gjort på grund af, at der er flere og flere spil, der bruger komplexe AI algoritmer og komplexe fysiske udregninger".

 

3Dmark Vantage
Næste 3Dmark version, der er brugt, har fået navnet Vantage. 3Dmark Vantage så vi på gaden den 28. april 2008 og var det første 3Dmark program, der havde understøttelse for DirectX 10, hvilket betyder at programmet kun kan køre i Windows Vista eller Windows 7.

 

 

3Dmark11
Sidste 3Dmark version, der vil blive brugt i guiden her, er 3Dmark11. Selvom navnet ville indikere en udgivelsesdato i 2011, så vi faktisk programmet på gaden 7. december 2010. Programmet er det første 3Dmark program, der tager brug af alle DirectX 11's funktioner.

 

3Dmark
Det nyeste skud på stammen fra Futuremark. Programmet byder på endnu mere krævende grafiktests, og der er mulighed for også at køre programmet på Android/iOS enheder og der kan direkte sammenlignes med de helt store PC systemer.

 

ALICE: Madness Returns
Alice: Madness Returns er i genren rædsel eller horror, som de fleste vil kalde det. Spillet blev udgivet i Europa den 16. juni 2011, og bruger Unreal Engine 3, som giver mulighed for DirectX 9 - 11 og ganske fint grafik, der potentielt kan presse et enkelt HD 7970 i knæ i minimums FPS.

 

Battlefield 3
Battlefield 3 blev omtalt utrolig meget op til udgivelsen, og der tales stadig om dette spil som værende et af dem med bedst grafik, og det er også meget svært at argumentere imod. Spillet bruger Frostbite 2 Engine, og fik faktisk sin debut sammen med spillet her. Der er fuldt understøttelse for DirectX 11 og spillet kan samtidig drage fordel af et 64-bit Windows og 64-bit CPU, da Frostbite 2 både har en 32-bit og 64-bit version.

 

Crysis 3
Det er ikke længe side crysis 3 udkom, og spillet har allerede vist sig at være et af de mest grafik krævende spil til dato. Spillet gør brug af en opdateret version af Crytek's CryEngine 3. Denne gang ser vi fra starten fuld udnyttelse af DirectX 11, og ikke som Crysis 2 hvor der lige skulle laves en patch.

 

Deux Ex: Human Revolution
Deus Ex: Human Revolution er et spil, hvor du egentlig selv vælger din tilgang til tingene. Du kan enten snige dig igennem banerne eller brage igennem med et maskingevær og dræbe alle du møder på din vej. Spillet bruger en forholdsvis gammel spil engine, en modificeret version af Crystal Dynamic's Crystal Engine. Denne engine er fra 2005 og kræver ikke det helt voldsomme system for at køre ret godt, dog er grafikken også derefter. Der er mulighed for både DirectX 9 og 11.

 

Dead Island
Dead Island så vi den 9. september 2011, og fik ikke helt så meget omtale som jeg selv synes det skulle have haft. Blander du Grand Theft Auto og Left 4 Dead 2 har du en idé om, hvordan Dead Island er. Spillet er et Open World spil, hvilket betyder man kan gå, hvor man vil i hele spillets verden. Man skal dog passe på ikke at blive omringet af zombier, der vil spise ens hjerne. Spillet gør brug af Chrome Engine 5, hvilket giver mulighed for DirectX 11.

 

Resident Evil 6
En ny og bedre grafisk udgave af Resident Evil er udkommet siden min CrossFire artikel, og jeg har selvfølgelig valgt at benytte denne istedet for 5'eren. Spillet kører stadig med MT Framework engine, dog er det version 2.0 istedet for version 1.4 som Resident Evil 5 kørte med. Desværre er det mig ikke muligt at få spillet til at køre i DirectX 11 selvom jeg har set der skulle være understøttelse for det flere steder. Derfor bliver spillet her afviklet i DirectX 9.0c, men på trods af dette, er spillet tungt nok.

 

Tomb Raider (2013)
Det nye Tomb Raider er ude, og da jeg købte det med det samme kunne jeg lige så godt medtage det, selvom det bruger samme engine som Deus Ex. Dog er det, ligesom Deus Ex, en modificeret version, og grafikken ser også ud til at være blevet lidt bedre med Tomb Raider.

 

Så skal vi kigge på hardwaren der er brugt i denne test.

Vest-AALB-DK
 
Superbruger
Tilføjet:
04-04-2013 08:19:51
Svar/Indlæg:
247/2
hmm en test med en større cpu ville havde været godt, men kan konkludere at jeg måske bare skal smide et tredje 7970 kort i hvis jeg skulle mangle kraft 🙂


Micks
 
Elitebruger
Tilføjet:
04-04-2013 08:59:24
Svar/Indlæg:
1145/40
God og gennemført test :yes:

Dejligt at I har fået de nyeste spil med i test setup !

Tak 🙂


The
 
Chefredaktør
Tilføjet:
04-04-2013 10:21:17
Svar/Indlæg:
4741/1690
#1

Det er desværre ikke muligt for os, altid at have high-end cpuer - og grafikkort for den sags skyld, da det er produkter vi låner af producenterne.
Og vi har simpelthen ikke råd til, selv at anskaffe dem - desværre.


freak_master
 
Redaktør
Tilføjet:
04-04-2013 10:31:17
Svar/Indlæg:
6368/477
Jeg tror ikke problemet er manglende kerner eller tråde, som jo er sb-e's område. Problemet er rå regnekraft fra CPU'en, og her er 3770K faktisk bedre end 3960x. Mange programmer bruger alligevel ikke mere end 4 kerner, og bruges der flere har CPU'en jo HT.

3960x hvor 4 kerner og HT aktiveret vs 3770K vil 3770K helt klart vinde, plus en 3770K kan generelt overclockes mere end 3960x.


Anzelz
 
Elitebruger
Tilføjet:
04-04-2013 10:49:07
Svar/Indlæg:
2343/272
Bedste test jeg har læst på HWT! Masser af relevant info, velformuleret og mange af målinger! Thumps up!


kvist1992
 
Elitebruger
Tilføjet:
04-04-2013 11:41:19
Svar/Indlæg:
3565/372
#4 -> Det er lidt noget gøgl du skriver der 😛


3960X er 3770K overlegen på alle områder. For det første har den quad-channel RAM, for det andet har den mere cache og for det 3. giver den større båndbredde til grafikkortene. X79 kan køre SLi eller CF med 2 stk. x16, hvor Z77 kun kan klare 2 stk. x8.

Derudover er forskellen på 3770K og 3960X meget voldsom i de syntetiske tests. Dog er forskellen ikke voldsom i spil, hvor der dog fortsat kan være problemer med at føde sådan to kort.

🙂

(Jeg har selv både 3930K, 3960X samt 3770K)


freak_master
 
Redaktør
Tilføjet:
04-04-2013 11:48:07
Svar/Indlæg:
6368/477

#4 -> Det er lidt noget gøgl du skriver der 😛


3960X er 3770K overlegen på alle områder. For det første har den quad-channel RAM, for det andet har den mere cache og for det 3. giver den større båndbredde til grafikkortene. X79 kan køre SLi eller CF med 2 stk. x16, hvor Z77 kun kan klare 2 stk. x8.

Derudover er forskellen på 3770K og 3960X meget voldsom i de syntetiske tests. Dog er forskellen ikke voldsom i spil, hvor der dog fortsat kan være problemer med at føde sådan to kort.

🙂

(Jeg har selv både 3930K, 3960X samt 3770K)

kvist1992 skrev d. 04-04-2013 11:41:19


Ahh...

Mere RAM båndbredde til disse Intel CPU'er, udover det mine 2133Mhz kan føde den med, vil være overflødig i tests som disse, også selvom det er quad channel.

Derudover så har bundkortet der er brugt i testen en PLX chip der essentielt fordobler PCIe banerne, således at begge grafikkort får fuld PCIe x16 3.0.

sb-e cpu'er med 6 kerner og ht er ikke andet end en stor 2600K, der er ikke flere transistorer per kerne, hvilket også betyder at der ikke er mere ydelse per kerne. Når der så bliver testet i f.eks. 3dmark03 der kun udnytter en kerne og en tråd, så vil 3770K være 3960x overlegen, da per kerne ydelsen er større på 3770K end på 3960x.

Det er også derfor vi ser en kæmpe skalering ved et CPU overclock i 3dmark03, og en meget mindre skalering i 3dmark11 som kan klare alle 12 tråde i en 3960x, her vil 3960x sikkert være 3770K overlegen, fordi CPU'en bliver brugt fuldt ud.

Men kigger vi så på testens formål, at se microstutter og ydelse i spil, så er en 3960x faktisk dårligere end 3770K, da mange spil aldrig får brugt mere end 4 kerner.


kvist1992
 
Elitebruger
Tilføjet:
04-04-2013 11:54:39
Svar/Indlæg:
3565/372
Det ændrer ikke på, at Quad Channel giver en båndbredde på 256-bit mod de 128-bit du kan få ud af Dual Channel.

Det er jo ikke bare en stor 2600K. Tag 3820. Den har eks. mere cache end 3770K, hvilket, naturligvis, har betydning for ydelsen.

3DMark03 er ikke en test, der kan danne grundlag for noget som helst i dag. Det er program, der blev lavet for 10 år siden, hvilket gør det meget irrelevant at benytte. Stoppede selv med at bruge det for snart 2 år siden. Det kan godt vise ydelsen i DX8/9 spil, men nu kan selv et HD7750 æde mere eller mindre alle DX8/9 spil, maxet ud.

3930K/3960X er stadig bedre til multi-GPU setups. Uanset hvad. Her hverken kan eller vil 3770K nogensinde kunne være med.

🙂


Ciric
 
Elitebruger
Tilføjet:
04-04-2013 11:55:31
Svar/Indlæg:
1881/22
"Derudover så har bundkortet der er brugt i testen en PLX chip der essentielt fordobler PCIe banerne, således at begge grafikkort får fuld PCIe x16 3.0."

Den plx chip hjælper bare ikke rigtigt på at pci-express controlleren i CPU'en nu engang kun har den båndbredde den har. Den eneste fordel du får med plx chippen, er hvis de kort ikke belastes samtidig, hvilket ikke sker i et SLI setup.


freak_master
 
Redaktør
Tilføjet:
04-04-2013 12:09:23
Svar/Indlæg:
6368/477

Det ændrer ikke på, at Quad Channel giver en båndbredde på 256-bit mod de 128-bit du kan få ud af Dual Channel.

Det er jo ikke bare en stor 2600K. Tag 3820. Den har eks. mere cache end 3770K, hvilket, naturligvis, har betydning for ydelsen.

3DMark03 er ikke en test, der kan danne grundlag for noget som helst i dag. Det er program, der blev lavet for 10 år siden, hvilket gør det meget irrelevant at benytte. Stoppede selv med at bruge det for snart 2 år siden. Det kan godt vise ydelsen i DX8/9 spil, men nu kan selv et HD7750 æde mere eller mindre alle DX8/9 spil, maxet ud.

3930K/3960X er stadig bedre til multi-GPU setups. Uanset hvad. Her hverken kan eller vil 3770K nogensinde kunne være med.

🙂

kvist1992 skrev d. 04-04-2013 11:54:39


Den større cache mængde har ikke forfærdeligt meget at sige, slet ikke når vi snakker spil. Endnu engang vil jeg understrege at 3Dmark er med blot for at have en syntetisk benchmark med, det er spillene der er fokus på her, og her vil 3960x ikke være bedre end en 3770K, slet ikke ved overclock, da chippen her rammer 5Ghz hvor den 3960x sample jeg fik ikke ville mere end 4.7Ghz.

"Derudover så har bundkortet der er brugt i testen en PLX chip der essentielt fordobler PCIe banerne, således at begge grafikkort får fuld PCIe x16 3.0."

Den plx chip hjælper bare ikke rigtigt på at pci-express controlleren i CPU'en nu engang kun har den båndbredde den har. Den eneste fordel du får med plx chippen, er hvis de kort ikke belastes samtidig, hvilket ikke sker i et SLI setup.

Ciric skrev d. 04-04-2013 11:55:31


PLX chippen er en switch, der skifter med grafikkortene, da grafikkortene skiftes med at lave billeder skifter PLX chippen over til grafikkortet der skal lave et billede. Det er også derfor det kan skabe en smule mere microstutter end normalt, men vil stadig give fuld udnyttelse af PCIe 3.0 x16.

http://www.plxtech.com/product...

Forsinkelse på switchen ligger på mellem 118 nano sekunder til 275 nano sekunder afhængig af hvilken det er, igen kan jeg desværre ikke lige huske hvilken der sidder på det kort jeg har brugt her.


Svaret blev redigeret 1 gang, sidst af freak_master d. 04-04-2013 12:11:37.


kvist1992
 
Elitebruger
Tilføjet:
04-04-2013 12:23:47
Svar/Indlæg:
3565/372
#10 -> Lige hvad angår TITAN, så er det IKKE gamere der køber sådan et kort. Det er enthusisater. Ingen køber et kort til 7.500 kr. for at spille Starcraft 2 eks.

Hvorfor så ikke tage Unigine Valley med, eller Catzilla? De er meget mere relevante. Folk er lgieglade med en 10 år gammel DX9 test. 🙂

PLX chippen skifter mellem kortene, kort sagt. Faktum er stadig, at CPUen skal håndtere dataen, og her er 3930K og 3960X bare bedre. Det er desuden en dårlig sample I har haft. Den jeg har liggende render nemt 5 GHz. Den 3930K jeg har tøffer afsted ved 4.5 GHz ved 1.39v.



NoNig
 
Elitebruger
Tilføjet:
04-04-2013 12:30:28
Svar/Indlæg:
23132/740
-> freak_master

Skidefin anmeldelse/test. Rart med nogle tal man kan vurdere noget ud fra.

Hvis jeg må, vil jeg dog gerne knytte et par kommentarer til dine målinger (jeg kan måske have overset det, men jeg synes ikke du kommer ind på det).

Dit overclock på CPU'en: ca. 43 %
Dit overclock på GPU'en: ca. 20 %
Dit overclock på RAM: ca. 2.5 %

Hvis nu vi ser bort fra de tekniske detaljer (alt det der med chippen interesserer mig for så vidt ikke) og isolerer de variable du måler på, så ville jeg knytte følgende konklusioner på de tal:

Der hvor du OC'er CPU'en, og oplever et ydelseshop på op til 43 % har CPU'en været (og er stadig) den begrænsende faktor. Havde ydelsesspringet været på "kun" (eksempelvis) 30 %, var CPU'en ikke længere den begrænsende faktor.

Det samme gælder for så vidt dit OC på GPU og RAM.

Der hvor du havde målt et ydelseshop op til 20 % (eller over), har det været GPU'en og RAM der var den begrænsende faktor.

Er dit ydelseshop beskedent (efter OC på enten CPU, GPU el. RAM), men tæt på 0, ligger din begrænsning andensteds. Det kan være dine system-RAM, dit systemdrev eller andre faktorer der spiller ind (sågar drivere, der venter på respons, lidt det modsatte af Vsync, der begrænser til en defineret variabel, nemlig skærmens opdateringshastighed).

Det bekræfter sådan set en hypotese jeg længe selv har gået rundt med (du nævner det også selv), at spil er kodet forskelligt og derfor reagerer forskelligt på eks. ændring af clockfrekvens.

Der hvor ændringen er minimal, kan det være, at subsystemet ikke kan følge med. Men med framerates over 30- eller 60 FPS, er det for så vidt ligemeget. Jeg synes du gør det helt rigtige, i at medtage hensynet til microstutter.

Det eneste jeg sådan kan sætte fingeren på, men det er også for at være rigtigt irriterende, så er det at jeg ikke ved om du har kørt ét run eller flere runs, som du så har målt et gennemsnit på (eks. 5 runs, frasortér lavest og højest, og beregn gennemsnit af de tre i midten), for at få et mere præcist resultat.

Derudover?

Så er det fandme et godt stykke arbejde! 😎

Top dollar, og så er alt det der med PLX og CPU'ens cache fuldstændig ligemeget 🙂


freak_master
 
Redaktør
Tilføjet:
04-04-2013 12:51:16
Svar/Indlæg:
6368/477

#10 -> Lige hvad angår TITAN, så er det IKKE gamere der køber sådan et kort. Det er enthusisater. Ingen køber et kort til 7.500 kr. for at spille Starcraft 2 eks.

Hvorfor så ikke tage Unigine Valley med, eller Catzilla? De er meget mere relevante. Folk er lgieglade med en 10 år gammel DX9 test. 🙂

PLX chippen skifter mellem kortene, kort sagt. Faktum er stadig, at CPUen skal håndtere dataen, og her er 3930K og 3960X bare bedre. Det er desuden en dårlig sample I har haft. Den jeg har liggende render nemt 5 GHz. Den 3930K jeg har tøffer afsted ved 4.5 GHz ved 1.39v.

kvist1992 skrev d. 04-04-2013 12:23:47


Jeg har nu set flere der har købt Titan kort for at spille med dem, netop fordi det er single GPU modsat GTX690. Det er muligt kortet er rettet mod overclockere og rendering arbejde, men mange bruger det stadig til spil.

-> freak_master

Skidefin anmeldelse/test. Rart med nogle tal man kan vurdere noget ud fra.

Hvis jeg må, vil jeg dog gerne knytte et par kommentarer til dine målinger (jeg kan måske have overset det, men jeg synes ikke du kommer ind på det).

Dit overclock på CPU'en: ca. 43 %
Dit overclock på GPU'en: ca. 20 %
Dit overclock på RAM: ca. 2.5 %

Hvis nu vi ser bort fra de tekniske detaljer (alt det der med chippen interesserer mig for så vidt ikke) og isolerer de variable du måler på, så ville jeg knytte følgende konklusioner på de tal:

Der hvor du OC'er CPU'en, og oplever et ydelseshop på op til 43 % har CPU'en været (og er stadig) den begrænsende faktor. Havde ydelsesspringet været på "kun" (eksempelvis) 30 %, var CPU'en ikke længere den begrænsende faktor.

Det samme gælder for så vidt dit OC på GPU og RAM.

Der hvor du havde målt et ydelseshop op til 20 % (eller over), har det været GPU'en og RAM der var den begrænsende faktor.

Er dit ydelseshop beskedent (efter OC på enten CPU, GPU el. RAM), men tæt på 0, ligger din begrænsning andensteds. Det kan være dine system-RAM, dit systemdrev eller andre faktorer der spiller ind (sågar drivere, der venter på respons, lidt det modsatte af Vsync, der begrænser til en defineret variabel, nemlig skærmens opdateringshastighed).

Det bekræfter sådan set en hypotese jeg længe selv har gået rundt med (du nævner det også selv), at spil er kodet forskelligt og derfor reagerer forskelligt på eks. ændring af clockfrekvens.

Der hvor ændringen er minimal, kan det være, at subsystemet ikke kan følge med. Men med framerates over 30- eller 60 FPS, er det for så vidt ligemeget. Jeg synes du gør det helt rigtige, i at medtage hensynet til microstutter.

Det eneste jeg sådan kan sætte fingeren på, men det er også for at være rigtigt irriterende, så er det at jeg ikke ved om du har kørt ét run eller flere runs, som du så har målt et gennemsnit på (eks. 5 runs, frasortér lavest og højest, og beregn gennemsnit af de tre i midten), for at få et mere præcist resultat.

Derudover?

Så er det fandme et godt stykke arbejde! 😎

Top dollar, og så er alt det der med PLX og CPU'ens cache fuldstændig ligemeget 🙂

NoNig skrev d. 04-04-2013 12:30:28


Jeg takker mange gange for de fine ord 🙂

Hvor får du RAM overclock fra? Så vidt jeg husker hævede jeg ikke bus hastigheden eller RAM multiplier, men kun CPU hastigheden.

For lige at komme testmetoden til livs, så kører jeg, hver eneste gang jeg laver en test, testene igennem 3 gange og tager gennemsnittet. Jeg køre ikke 5 gange og tage den største og mindste fra. Det er dog ikke sket ved benchmark, her har jeg medtaget det højeste lige i denne omgang, netop fordi jeg kom ret højt på hwbot.org. Jeg nævner dette og så vil det nok se underligt ud at finde nogle andre tal end dem der står i artiklen hvis du kigger på hwbot.org.


slaske6
 
Elitebruger
Tilføjet:
04-04-2013 15:38:15
Svar/Indlæg:
1571/39
nice test freak_master 🙂


freak_master
 
Redaktør
Tilføjet:
04-04-2013 16:05:52
Svar/Indlæg:
6368/477

nice test freak_master 🙂

slaske6 skrev d. 04-04-2013 15:38:15


Taaak tak tak tak tak 😀


eviling
 
Overclocker
Tilføjet:
04-04-2013 18:00:29
Svar/Indlæg:
442/14
Hvordan er støj niveauet når sådan 2 sættes i sli? altså i forhold til et enkelt.


freak_master
 
Redaktør
Tilføjet:
04-04-2013 18:13:33
Svar/Indlæg:
6368/477

Hvordan er støj niveauet når sådan 2 sættes i sli? altså i forhold til et enkelt.

eviling skrev d. 04-04-2013 18:00:29


Støjen er den samme. Når kortene kører med standard indstillinger bliver de faktisk ikke hørt, de er jo indstillet til 80 grader, men den røg alligevel op på de 88 grader med 2 kort, men selvom den er deroppe høre man det faktisk ikke.


NoNig
 
Elitebruger
Tilføjet:
04-04-2013 18:35:56
Svar/Indlæg:
23132/740
-> #13

RAM, på grafikkortet 🙂


0raxter
 
Elitebruger
Tilføjet:
04-04-2013 21:35:08
Svar/Indlæg:
301/10
Hmmm... havde faktisk regnet med at se lidt mere "go" fra titan kortene.... Har været lun på dem siden de kom... men denne test beviste at jeg vidst godt kan leve med mit aldrende setup af 7970 gpuer...


freak_master
 
Redaktør
Tilføjet:
04-04-2013 23:04:52
Svar/Indlæg:
6368/477

-> #13

RAM, på grafikkortet 🙂

NoNig skrev d. 04-04-2013 18:35:56


Ja selvfølgelig 😛

Hmmm... havde faktisk regnet med at se lidt mere "go" fra titan kortene.... Har været lun på dem siden de kom... men denne test beviste at jeg vidst godt kan leve med mit aldrende setup af 7970 gpuer...

0raxter skrev d. 04-04-2013 21:35:08


Jeg havde også selv samlet sammen til dem, men valgte at beholde 7970, købe et ekstra og smide vand på dem istedet.


freak_master
 
Redaktør
Tilføjet:
04-04-2013 23:05:28
Svar/Indlæg:
6368/477
Taak 😀

Ja man skal passe på man ikke klatter på kortene når man sidder med dem 🤡


Sirmbg
 
Ny Bruger
Tilføjet:
04-04-2013 23:32:33
Svar/Indlæg:
6/0
kvist1992

din test på tweak hvor i tester alle de forskellig dx11er der er, er måske meget bedre? 🤡


kvist1992
 
Elitebruger
Tilføjet:
05-04-2013 07:06:16
Svar/Indlæg:
3565/372
#22 ->
Hvad snakker du om ? (martinbg)


Gripen90
 
Senior Skribent
Tilføjet:
05-04-2013 13:01:50
Svar/Indlæg:
15982/637
Et total OT kommentar slynget ind fra venstre.
Gigabyte laver et GTX Titan med Windoforce 3X køler - så hvis man ser på Titan med anden køleløsning så er det et kig værd 🙂



http://hexus.net/tech/news/gra...


freak_master
 
Redaktør
Tilføjet:
05-04-2013 13:05:01
Svar/Indlæg:
6368/477

Et total OT kommentar slynget ind fra venstre.
Gigabyte laver et GTX Titan med Windoforce 3X køler - så hvis man ser på Titan med anden køleløsning så er det et kig værd 🙂



http://hexus.net/tech/news/gra...

Gripen90 skrev d. 05-04-2013 13:01:50


Jeg har set rigtig mange producenter smække deres egen køler på Titan kortene, men vi kan endnu ikke købe dem. Jeg har ikke lige læst det du linker til, men det virker til at være noget de blot har klargjort, og stadig venter på nVidia til at give et OK.


Gripen90
 
Senior Skribent
Tilføjet:
05-04-2013 13:22:16
Svar/Indlæg:
15982/637

Et total OT kommentar slynget ind fra venstre.
Gigabyte laver et GTX Titan med Windoforce 3X køler - så hvis man ser på Titan med anden køleløsning så er det et kig værd 🙂



http://hexus.net/tech/news/gra...

Gripen90 skrev d. 05-04-2013 13:01:50


Jeg har set rigtig mange producenter smække deres egen køler på Titan kortene, men vi kan endnu ikke købe dem. Jeg har ikke lige læst det du linker til, men det virker til at være noget de blot har klargjort, og stadig venter på nVidia til at give et OK.

freak_master skrev d. 05-04-2013 13:05:01


Nemlig - jeg har heller ikke læst andet endnu end at reference blæser skal bruge til Titan. Men det er lidt et "bold statement" af Gigabyte officelt at lægge sådan et kort på officielt på bordet til pressen under deres asiatiske messe 🙂


myrizzle
 
Elitebruger
Tilføjet:
05-04-2013 13:51:30
Svar/Indlæg:
1895/41
Fin og fyldestgørende test! 🙂 En fornøjelse!


kvist1992
 
Elitebruger
Tilføjet:
05-04-2013 16:33:23
Svar/Indlæg:
3565/372
NVidia fortalte, at man ikke måtte smide andre kølere på kortet, hvilket slet ikke giver mening, da det er et møg lækkert kort! Men det Gripen har fundet der, ser meget troværdigt ud! 🙂


Rasmus66
 
Elitebruger
Tilføjet:
05-04-2013 16:37:55
Svar/Indlæg:
8762/174
#28

Så vidt jeg kunne læse på de forskellige artikler der var omkring Titan kortene op til launch og nogle uger før så havde Nvidia lukket for non reference design PCB.

Alle kort kunne bruge Nvidia print layoutet, der blev ikke snakket noget om køleren så Gigabyte og andre producenter kan da roligt komme med alternative køler løsninger uden at få Nvidia på nakken.


freak_master
 
Redaktør
Tilføjet:
05-04-2013 16:42:15
Svar/Indlæg:
6368/477

#28

Så vidt jeg kunne læse på de forskellige artikler der var omkring Titan kortene op til launch og nogle uger før så havde Nvidia lukket for non reference design PCB.

Alle kort kunne bruge Nvidia print layoutet, der blev ikke snakket noget om køleren så Gigabyte og andre producenter kan da roligt komme med alternative køler løsninger uden at få Nvidia på nakken.

Rasmus66 skrev d. 05-04-2013 16:37:55


Jo, nVidia bestemmer også at der skal være ref køler på, det fik vi at vide flere gange nede på CeBIT.

Om de har skiftet mening ved jeg så ikke.


Risaan
 
Superbruger
Tilføjet:
06-04-2013 01:57:56
Svar/Indlæg:
279/10
Koolance's Water Block for the GTX Titan Now Available :) man kan da købe SLI vandkøling til titan :)
http://www.tomshardware.com/ne...


freak_master
 
Redaktør
Tilføjet:
06-04-2013 03:28:49
Svar/Indlæg:
6368/477
http://www.hwbot.org/submissio...

Du kan sagtens have 4 Titans sammen...


myrizzle
 
Elitebruger
Tilføjet:
06-04-2013 09:43:18
Svar/Indlæg:
1895/41
Ved godt de får de der kort smidt i nakken af producenterne, men at man uden problemer lige zombie modder et kort til 7500x4 så er man da også ligeglad 😀


Colgate
 
Superbruger
Tilføjet:
08-04-2013 16:26:22
Svar/Indlæg:
162/28
Kanon artikel, men savner noget mere om frame rating (micro stutter), når CF og SLI sammenlignes. Micro stuttering med crossfire kan være næsten 100 % 😲 . Ved godt det først for nyligt er blevet offentlig viden, men det kommer til at overflyde brugt markedet med Radeon grafikkort
Alle multi-gpu ejere burde læse og sælge deres ekstra HD7970 billigt til mig: http://www.pcper.com/reviews/G... (Linket er korrekt)


Svaret blev redigeret 1 gang, sidst af Colgate d. 08-04-2013 16:29:02.


Ciric
 
Elitebruger
Tilføjet:
08-04-2013 17:30:29
Svar/Indlæg:
1881/22
Det er så bare ikke kun CF som har problemer med micro stutter ...det har SLI også.
...og det har været almen viden meget længe 😉


freak_master
 
Redaktør
Tilføjet:
08-04-2013 17:54:20
Svar/Indlæg:
6368/477

Kanon artikel, men savner noget mere om frame rating (micro stutter), når CF og SLI sammenlignes. Micro stuttering med crossfire kan være næsten 100 % 😲 . Ved godt det først for nyligt er blevet offentlig viden, men det kommer til at overflyde brugt markedet med Radeon grafikkort
Alle multi-gpu ejere burde læse og sælge deres ekstra HD7970 billigt til mig: http://www.pcper.com/reviews/G... (Linket er korrekt)

Colgate skrev d. 08-04-2013 16:26:22


http://www.pcper.com/reviews/G...

Tag en kigger på når der køres med vsync, der klare 7970 sig noget bedre end GTX 680.

Det beviser jo også blot det jeg skriver i artiklen, vsync er vejen frem, selvom man kan rende med 500FPS+ er det ikke noget værd, og vsync vil give et meget, meget bedre billede.


sedanen
 
Superbruger
Tilføjet:
12-04-2013 21:05:07
Svar/Indlæg:
41/4
Bare en tanke. Men kunne manglende skallering ved sli ikke skyldes manglende power fra psu!?
En 750 Watter levere jo nok ikke nok peak til to titan og et 5ghz oc?


0raxter
 
Elitebruger
Tilføjet:
12-04-2013 21:33:25
Svar/Indlæg:
301/10
750 Watt burde da godt kunne levere til det setup... specielt af den kvalitet...