Korrekturlæser: jmose
Billed behandling: freak_master
Oversættelse: jmose

Pristjek på http://www.pricerunner.dk 0,00
Produkt udlånt af: n/a
DK distributør: n/a

Test setup

 

Testmaskinen består af :
Gigabyte Z77X-UP7 bundkort
Intel Core i7 3770K CPU

G.Skill Ripjaws PC3-17000 2133Mhz 9-10-9-28
Enermax Evolution87+ 750Watt PSU
Western Digital Caviar Black 500GB
Microsoft Windows 7 professional x64

Køling:
CPU er kølet af en Antec Kühler H20 920V4

Sponsoreret af Antec.com
http://www.antec.com/believe_it/

Resten kører med standard køling.

 

PCIe konfiguration:
Bundkortet der er blevet brugt, har fuld understøttelse for PCIe 3.0, og derfor vil denne standard blive brugt på de grafikkort der kan bruge den. Når der køres med et grafikkort bliver der lukket ned for PLX chippen på bundkortet, dette gør at der er direkte forbindelse mellem grafikkort og CPU. Men for at køre med mere end et grafikkort skal PLX chippen aktiveres. Dette kan betyde en mindre forsinkelse, og kan i sidste ende generere en smule mere microstutter (se beskrivelse nedenfor). Det betyder dog også,  at når der køres med 2 grafikkort får begge fuld x16 hastighed via PCIe porten, og kan give lidt flere FPS.

 

Microstutter:

 

Grafen ovenover viser de samme 30 billeder i spillet Call of Juarez. Der er blevet kørt både med et og to grafikkort. Tiden det tager at lave et billede med et grafikkort, er næsten den samme for hvert billede, men med to grafikkort begynder grafen at hoppe rigtig meget op og ned. Dette er hvad vi kalder for microstutter.

Hver gang grafikkort 1 laver et billede, skal grafikkort 2 lave næste. Men det kan ske at disse overlapper hinanden lidt, således at grafikkort 2 får lavet sit billede, inden grafikkort 1 er færdig med det billede det skal lave. I værste fald kan begge grafikkort færdiggøre et billede på selv samme tid, og bliver der derfor målt 60FPS, vil den egentlige FPS ligge på 30. Jeg kan selv huske i de gamle dage, hvor vi ofte så en meget høj microstutter, og dette er der heldigvis rettet godt op på. Men fænomenet ser vi stadig. I guiden her bliver der målt tid mellem hvert billede, hvorefter gennemsnittet bliver udregnet, herefter bliver den egentlige FPS udregnet, og forskellen mellem den viste FPS og den udregnet FPS vil blive vist på graferne i procent. Jeg har en forventning om, at vi vil se microstutter i nærheden af 2%, hvilket også ses som acceptabel.  Men det skal heller ikke undre mig, hvis vi ser microstutter på hele 5%, da de forskellige spil motorer håndterer flere GPU'er forskelligt - hvor nogen er bedre end andre. Jeg vil denne gang vise forskellen på at køre med og uden vsync, da dette kan have en voldsom effekt på microstutter index'et som vi arbejder med her. Jeg vil derfor måle microstutter både med og uden vsync, og der vil blive vist begge dele i graferne. Der bliver kørt med en 60Hz skærm hvilket betyder at FPS ikke vil overstige 60 med vsync til.

 

Spil indstillinger:
Alle spil der er brugt i artiklen her, er kørt på sit absolut maksimum. Alt hvad der kan slåes til, er slået til med en opløsning på 1920x1080. Indstillinger vil ikke blive beskrevet i grafer, da der kun er benyttet denne ene indstilling.

 

Så skal vi vidst også igang med testene.

Vest-AALB-DK
 
Superbruger
Tilføjet:
04-04-2013 08:19:51
Svar/Indlæg:
247/2
hmm en test med en større cpu ville havde været godt, men kan konkludere at jeg måske bare skal smide et tredje 7970 kort i hvis jeg skulle mangle kraft 🙂


Micks
 
Elitebruger
Tilføjet:
04-04-2013 08:59:24
Svar/Indlæg:
1145/40
God og gennemført test :yes:

Dejligt at I har fået de nyeste spil med i test setup !

Tak 🙂


The
 
Chefredaktør
Tilføjet:
04-04-2013 10:21:17
Svar/Indlæg:
4741/1690
#1

Det er desværre ikke muligt for os, altid at have high-end cpuer - og grafikkort for den sags skyld, da det er produkter vi låner af producenterne.
Og vi har simpelthen ikke råd til, selv at anskaffe dem - desværre.


freak_master
 
Redaktør
Tilføjet:
04-04-2013 10:31:17
Svar/Indlæg:
6368/477
Jeg tror ikke problemet er manglende kerner eller tråde, som jo er sb-e's område. Problemet er rå regnekraft fra CPU'en, og her er 3770K faktisk bedre end 3960x. Mange programmer bruger alligevel ikke mere end 4 kerner, og bruges der flere har CPU'en jo HT.

3960x hvor 4 kerner og HT aktiveret vs 3770K vil 3770K helt klart vinde, plus en 3770K kan generelt overclockes mere end 3960x.


Anzelz
 
Elitebruger
Tilføjet:
04-04-2013 10:49:07
Svar/Indlæg:
2343/272
Bedste test jeg har læst på HWT! Masser af relevant info, velformuleret og mange af målinger! Thumps up!


kvist1992
 
Elitebruger
Tilføjet:
04-04-2013 11:41:19
Svar/Indlæg:
3565/372
#4 -> Det er lidt noget gøgl du skriver der 😛


3960X er 3770K overlegen på alle områder. For det første har den quad-channel RAM, for det andet har den mere cache og for det 3. giver den større båndbredde til grafikkortene. X79 kan køre SLi eller CF med 2 stk. x16, hvor Z77 kun kan klare 2 stk. x8.

Derudover er forskellen på 3770K og 3960X meget voldsom i de syntetiske tests. Dog er forskellen ikke voldsom i spil, hvor der dog fortsat kan være problemer med at føde sådan to kort.

🙂

(Jeg har selv både 3930K, 3960X samt 3770K)


freak_master
 
Redaktør
Tilføjet:
04-04-2013 11:48:07
Svar/Indlæg:
6368/477

#4 -> Det er lidt noget gøgl du skriver der 😛


3960X er 3770K overlegen på alle områder. For det første har den quad-channel RAM, for det andet har den mere cache og for det 3. giver den større båndbredde til grafikkortene. X79 kan køre SLi eller CF med 2 stk. x16, hvor Z77 kun kan klare 2 stk. x8.

Derudover er forskellen på 3770K og 3960X meget voldsom i de syntetiske tests. Dog er forskellen ikke voldsom i spil, hvor der dog fortsat kan være problemer med at føde sådan to kort.

🙂

(Jeg har selv både 3930K, 3960X samt 3770K)

kvist1992 skrev d. 04-04-2013 11:41:19


Ahh...

Mere RAM båndbredde til disse Intel CPU'er, udover det mine 2133Mhz kan føde den med, vil være overflødig i tests som disse, også selvom det er quad channel.

Derudover så har bundkortet der er brugt i testen en PLX chip der essentielt fordobler PCIe banerne, således at begge grafikkort får fuld PCIe x16 3.0.

sb-e cpu'er med 6 kerner og ht er ikke andet end en stor 2600K, der er ikke flere transistorer per kerne, hvilket også betyder at der ikke er mere ydelse per kerne. Når der så bliver testet i f.eks. 3dmark03 der kun udnytter en kerne og en tråd, så vil 3770K være 3960x overlegen, da per kerne ydelsen er større på 3770K end på 3960x.

Det er også derfor vi ser en kæmpe skalering ved et CPU overclock i 3dmark03, og en meget mindre skalering i 3dmark11 som kan klare alle 12 tråde i en 3960x, her vil 3960x sikkert være 3770K overlegen, fordi CPU'en bliver brugt fuldt ud.

Men kigger vi så på testens formål, at se microstutter og ydelse i spil, så er en 3960x faktisk dårligere end 3770K, da mange spil aldrig får brugt mere end 4 kerner.


kvist1992
 
Elitebruger
Tilføjet:
04-04-2013 11:54:39
Svar/Indlæg:
3565/372
Det ændrer ikke på, at Quad Channel giver en båndbredde på 256-bit mod de 128-bit du kan få ud af Dual Channel.

Det er jo ikke bare en stor 2600K. Tag 3820. Den har eks. mere cache end 3770K, hvilket, naturligvis, har betydning for ydelsen.

3DMark03 er ikke en test, der kan danne grundlag for noget som helst i dag. Det er program, der blev lavet for 10 år siden, hvilket gør det meget irrelevant at benytte. Stoppede selv med at bruge det for snart 2 år siden. Det kan godt vise ydelsen i DX8/9 spil, men nu kan selv et HD7750 æde mere eller mindre alle DX8/9 spil, maxet ud.

3930K/3960X er stadig bedre til multi-GPU setups. Uanset hvad. Her hverken kan eller vil 3770K nogensinde kunne være med.

🙂


Ciric
 
Elitebruger
Tilføjet:
04-04-2013 11:55:31
Svar/Indlæg:
1881/22
"Derudover så har bundkortet der er brugt i testen en PLX chip der essentielt fordobler PCIe banerne, således at begge grafikkort får fuld PCIe x16 3.0."

Den plx chip hjælper bare ikke rigtigt på at pci-express controlleren i CPU'en nu engang kun har den båndbredde den har. Den eneste fordel du får med plx chippen, er hvis de kort ikke belastes samtidig, hvilket ikke sker i et SLI setup.


freak_master
 
Redaktør
Tilføjet:
04-04-2013 12:09:23
Svar/Indlæg:
6368/477

Det ændrer ikke på, at Quad Channel giver en båndbredde på 256-bit mod de 128-bit du kan få ud af Dual Channel.

Det er jo ikke bare en stor 2600K. Tag 3820. Den har eks. mere cache end 3770K, hvilket, naturligvis, har betydning for ydelsen.

3DMark03 er ikke en test, der kan danne grundlag for noget som helst i dag. Det er program, der blev lavet for 10 år siden, hvilket gør det meget irrelevant at benytte. Stoppede selv med at bruge det for snart 2 år siden. Det kan godt vise ydelsen i DX8/9 spil, men nu kan selv et HD7750 æde mere eller mindre alle DX8/9 spil, maxet ud.

3930K/3960X er stadig bedre til multi-GPU setups. Uanset hvad. Her hverken kan eller vil 3770K nogensinde kunne være med.

🙂

kvist1992 skrev d. 04-04-2013 11:54:39


Den større cache mængde har ikke forfærdeligt meget at sige, slet ikke når vi snakker spil. Endnu engang vil jeg understrege at 3Dmark er med blot for at have en syntetisk benchmark med, det er spillene der er fokus på her, og her vil 3960x ikke være bedre end en 3770K, slet ikke ved overclock, da chippen her rammer 5Ghz hvor den 3960x sample jeg fik ikke ville mere end 4.7Ghz.

"Derudover så har bundkortet der er brugt i testen en PLX chip der essentielt fordobler PCIe banerne, således at begge grafikkort får fuld PCIe x16 3.0."

Den plx chip hjælper bare ikke rigtigt på at pci-express controlleren i CPU'en nu engang kun har den båndbredde den har. Den eneste fordel du får med plx chippen, er hvis de kort ikke belastes samtidig, hvilket ikke sker i et SLI setup.

Ciric skrev d. 04-04-2013 11:55:31


PLX chippen er en switch, der skifter med grafikkortene, da grafikkortene skiftes med at lave billeder skifter PLX chippen over til grafikkortet der skal lave et billede. Det er også derfor det kan skabe en smule mere microstutter end normalt, men vil stadig give fuld udnyttelse af PCIe 3.0 x16.

http://www.plxtech.com/product...

Forsinkelse på switchen ligger på mellem 118 nano sekunder til 275 nano sekunder afhængig af hvilken det er, igen kan jeg desværre ikke lige huske hvilken der sidder på det kort jeg har brugt her.


Svaret blev redigeret 1 gang, sidst af freak_master d. 04-04-2013 12:11:37.


kvist1992
 
Elitebruger
Tilføjet:
04-04-2013 12:23:47
Svar/Indlæg:
3565/372
#10 -> Lige hvad angår TITAN, så er det IKKE gamere der køber sådan et kort. Det er enthusisater. Ingen køber et kort til 7.500 kr. for at spille Starcraft 2 eks.

Hvorfor så ikke tage Unigine Valley med, eller Catzilla? De er meget mere relevante. Folk er lgieglade med en 10 år gammel DX9 test. 🙂

PLX chippen skifter mellem kortene, kort sagt. Faktum er stadig, at CPUen skal håndtere dataen, og her er 3930K og 3960X bare bedre. Det er desuden en dårlig sample I har haft. Den jeg har liggende render nemt 5 GHz. Den 3930K jeg har tøffer afsted ved 4.5 GHz ved 1.39v.



NoNig
 
Elitebruger
Tilføjet:
04-04-2013 12:30:28
Svar/Indlæg:
23132/740
-> freak_master

Skidefin anmeldelse/test. Rart med nogle tal man kan vurdere noget ud fra.

Hvis jeg må, vil jeg dog gerne knytte et par kommentarer til dine målinger (jeg kan måske have overset det, men jeg synes ikke du kommer ind på det).

Dit overclock på CPU'en: ca. 43 %
Dit overclock på GPU'en: ca. 20 %
Dit overclock på RAM: ca. 2.5 %

Hvis nu vi ser bort fra de tekniske detaljer (alt det der med chippen interesserer mig for så vidt ikke) og isolerer de variable du måler på, så ville jeg knytte følgende konklusioner på de tal:

Der hvor du OC'er CPU'en, og oplever et ydelseshop på op til 43 % har CPU'en været (og er stadig) den begrænsende faktor. Havde ydelsesspringet været på "kun" (eksempelvis) 30 %, var CPU'en ikke længere den begrænsende faktor.

Det samme gælder for så vidt dit OC på GPU og RAM.

Der hvor du havde målt et ydelseshop op til 20 % (eller over), har det været GPU'en og RAM der var den begrænsende faktor.

Er dit ydelseshop beskedent (efter OC på enten CPU, GPU el. RAM), men tæt på 0, ligger din begrænsning andensteds. Det kan være dine system-RAM, dit systemdrev eller andre faktorer der spiller ind (sågar drivere, der venter på respons, lidt det modsatte af Vsync, der begrænser til en defineret variabel, nemlig skærmens opdateringshastighed).

Det bekræfter sådan set en hypotese jeg længe selv har gået rundt med (du nævner det også selv), at spil er kodet forskelligt og derfor reagerer forskelligt på eks. ændring af clockfrekvens.

Der hvor ændringen er minimal, kan det være, at subsystemet ikke kan følge med. Men med framerates over 30- eller 60 FPS, er det for så vidt ligemeget. Jeg synes du gør det helt rigtige, i at medtage hensynet til microstutter.

Det eneste jeg sådan kan sætte fingeren på, men det er også for at være rigtigt irriterende, så er det at jeg ikke ved om du har kørt ét run eller flere runs, som du så har målt et gennemsnit på (eks. 5 runs, frasortér lavest og højest, og beregn gennemsnit af de tre i midten), for at få et mere præcist resultat.

Derudover?

Så er det fandme et godt stykke arbejde! 😎

Top dollar, og så er alt det der med PLX og CPU'ens cache fuldstændig ligemeget 🙂


freak_master
 
Redaktør
Tilføjet:
04-04-2013 12:51:16
Svar/Indlæg:
6368/477

#10 -> Lige hvad angår TITAN, så er det IKKE gamere der køber sådan et kort. Det er enthusisater. Ingen køber et kort til 7.500 kr. for at spille Starcraft 2 eks.

Hvorfor så ikke tage Unigine Valley med, eller Catzilla? De er meget mere relevante. Folk er lgieglade med en 10 år gammel DX9 test. 🙂

PLX chippen skifter mellem kortene, kort sagt. Faktum er stadig, at CPUen skal håndtere dataen, og her er 3930K og 3960X bare bedre. Det er desuden en dårlig sample I har haft. Den jeg har liggende render nemt 5 GHz. Den 3930K jeg har tøffer afsted ved 4.5 GHz ved 1.39v.

kvist1992 skrev d. 04-04-2013 12:23:47


Jeg har nu set flere der har købt Titan kort for at spille med dem, netop fordi det er single GPU modsat GTX690. Det er muligt kortet er rettet mod overclockere og rendering arbejde, men mange bruger det stadig til spil.

-> freak_master

Skidefin anmeldelse/test. Rart med nogle tal man kan vurdere noget ud fra.

Hvis jeg må, vil jeg dog gerne knytte et par kommentarer til dine målinger (jeg kan måske have overset det, men jeg synes ikke du kommer ind på det).

Dit overclock på CPU'en: ca. 43 %
Dit overclock på GPU'en: ca. 20 %
Dit overclock på RAM: ca. 2.5 %

Hvis nu vi ser bort fra de tekniske detaljer (alt det der med chippen interesserer mig for så vidt ikke) og isolerer de variable du måler på, så ville jeg knytte følgende konklusioner på de tal:

Der hvor du OC'er CPU'en, og oplever et ydelseshop på op til 43 % har CPU'en været (og er stadig) den begrænsende faktor. Havde ydelsesspringet været på "kun" (eksempelvis) 30 %, var CPU'en ikke længere den begrænsende faktor.

Det samme gælder for så vidt dit OC på GPU og RAM.

Der hvor du havde målt et ydelseshop op til 20 % (eller over), har det været GPU'en og RAM der var den begrænsende faktor.

Er dit ydelseshop beskedent (efter OC på enten CPU, GPU el. RAM), men tæt på 0, ligger din begrænsning andensteds. Det kan være dine system-RAM, dit systemdrev eller andre faktorer der spiller ind (sågar drivere, der venter på respons, lidt det modsatte af Vsync, der begrænser til en defineret variabel, nemlig skærmens opdateringshastighed).

Det bekræfter sådan set en hypotese jeg længe selv har gået rundt med (du nævner det også selv), at spil er kodet forskelligt og derfor reagerer forskelligt på eks. ændring af clockfrekvens.

Der hvor ændringen er minimal, kan det være, at subsystemet ikke kan følge med. Men med framerates over 30- eller 60 FPS, er det for så vidt ligemeget. Jeg synes du gør det helt rigtige, i at medtage hensynet til microstutter.

Det eneste jeg sådan kan sætte fingeren på, men det er også for at være rigtigt irriterende, så er det at jeg ikke ved om du har kørt ét run eller flere runs, som du så har målt et gennemsnit på (eks. 5 runs, frasortér lavest og højest, og beregn gennemsnit af de tre i midten), for at få et mere præcist resultat.

Derudover?

Så er det fandme et godt stykke arbejde! 😎

Top dollar, og så er alt det der med PLX og CPU'ens cache fuldstændig ligemeget 🙂

NoNig skrev d. 04-04-2013 12:30:28


Jeg takker mange gange for de fine ord 🙂

Hvor får du RAM overclock fra? Så vidt jeg husker hævede jeg ikke bus hastigheden eller RAM multiplier, men kun CPU hastigheden.

For lige at komme testmetoden til livs, så kører jeg, hver eneste gang jeg laver en test, testene igennem 3 gange og tager gennemsnittet. Jeg køre ikke 5 gange og tage den største og mindste fra. Det er dog ikke sket ved benchmark, her har jeg medtaget det højeste lige i denne omgang, netop fordi jeg kom ret højt på hwbot.org. Jeg nævner dette og så vil det nok se underligt ud at finde nogle andre tal end dem der står i artiklen hvis du kigger på hwbot.org.


slaske6
 
Elitebruger
Tilføjet:
04-04-2013 15:38:15
Svar/Indlæg:
1571/39
nice test freak_master 🙂


freak_master
 
Redaktør
Tilføjet:
04-04-2013 16:05:52
Svar/Indlæg:
6368/477

nice test freak_master 🙂

slaske6 skrev d. 04-04-2013 15:38:15


Taaak tak tak tak tak 😀


eviling
 
Overclocker
Tilføjet:
04-04-2013 18:00:29
Svar/Indlæg:
442/14
Hvordan er støj niveauet når sådan 2 sættes i sli? altså i forhold til et enkelt.


freak_master
 
Redaktør
Tilføjet:
04-04-2013 18:13:33
Svar/Indlæg:
6368/477

Hvordan er støj niveauet når sådan 2 sættes i sli? altså i forhold til et enkelt.

eviling skrev d. 04-04-2013 18:00:29


Støjen er den samme. Når kortene kører med standard indstillinger bliver de faktisk ikke hørt, de er jo indstillet til 80 grader, men den røg alligevel op på de 88 grader med 2 kort, men selvom den er deroppe høre man det faktisk ikke.


NoNig
 
Elitebruger
Tilføjet:
04-04-2013 18:35:56
Svar/Indlæg:
23132/740
-> #13

RAM, på grafikkortet 🙂


0raxter
 
Elitebruger
Tilføjet:
04-04-2013 21:35:08
Svar/Indlæg:
301/10
Hmmm... havde faktisk regnet med at se lidt mere "go" fra titan kortene.... Har været lun på dem siden de kom... men denne test beviste at jeg vidst godt kan leve med mit aldrende setup af 7970 gpuer...


freak_master
 
Redaktør
Tilføjet:
04-04-2013 23:04:52
Svar/Indlæg:
6368/477

-> #13

RAM, på grafikkortet 🙂

NoNig skrev d. 04-04-2013 18:35:56


Ja selvfølgelig 😛

Hmmm... havde faktisk regnet med at se lidt mere "go" fra titan kortene.... Har været lun på dem siden de kom... men denne test beviste at jeg vidst godt kan leve med mit aldrende setup af 7970 gpuer...

0raxter skrev d. 04-04-2013 21:35:08


Jeg havde også selv samlet sammen til dem, men valgte at beholde 7970, købe et ekstra og smide vand på dem istedet.


freak_master
 
Redaktør
Tilføjet:
04-04-2013 23:05:28
Svar/Indlæg:
6368/477
Taak 😀

Ja man skal passe på man ikke klatter på kortene når man sidder med dem 🤡


Sirmbg
 
Ny Bruger
Tilføjet:
04-04-2013 23:32:33
Svar/Indlæg:
6/0
kvist1992

din test på tweak hvor i tester alle de forskellig dx11er der er, er måske meget bedre? 🤡


kvist1992
 
Elitebruger
Tilføjet:
05-04-2013 07:06:16
Svar/Indlæg:
3565/372
#22 ->
Hvad snakker du om ? (martinbg)


Gripen90
 
Senior Skribent
Tilføjet:
05-04-2013 13:01:50
Svar/Indlæg:
15982/637
Et total OT kommentar slynget ind fra venstre.
Gigabyte laver et GTX Titan med Windoforce 3X køler - så hvis man ser på Titan med anden køleløsning så er det et kig værd 🙂



http://hexus.net/tech/news/gra...


freak_master
 
Redaktør
Tilføjet:
05-04-2013 13:05:01
Svar/Indlæg:
6368/477

Et total OT kommentar slynget ind fra venstre.
Gigabyte laver et GTX Titan med Windoforce 3X køler - så hvis man ser på Titan med anden køleløsning så er det et kig værd 🙂



http://hexus.net/tech/news/gra...

Gripen90 skrev d. 05-04-2013 13:01:50


Jeg har set rigtig mange producenter smække deres egen køler på Titan kortene, men vi kan endnu ikke købe dem. Jeg har ikke lige læst det du linker til, men det virker til at være noget de blot har klargjort, og stadig venter på nVidia til at give et OK.


Gripen90
 
Senior Skribent
Tilføjet:
05-04-2013 13:22:16
Svar/Indlæg:
15982/637

Et total OT kommentar slynget ind fra venstre.
Gigabyte laver et GTX Titan med Windoforce 3X køler - så hvis man ser på Titan med anden køleløsning så er det et kig værd 🙂



http://hexus.net/tech/news/gra...

Gripen90 skrev d. 05-04-2013 13:01:50


Jeg har set rigtig mange producenter smække deres egen køler på Titan kortene, men vi kan endnu ikke købe dem. Jeg har ikke lige læst det du linker til, men det virker til at være noget de blot har klargjort, og stadig venter på nVidia til at give et OK.

freak_master skrev d. 05-04-2013 13:05:01


Nemlig - jeg har heller ikke læst andet endnu end at reference blæser skal bruge til Titan. Men det er lidt et "bold statement" af Gigabyte officelt at lægge sådan et kort på officielt på bordet til pressen under deres asiatiske messe 🙂


myrizzle
 
Elitebruger
Tilføjet:
05-04-2013 13:51:30
Svar/Indlæg:
1895/41
Fin og fyldestgørende test! 🙂 En fornøjelse!


kvist1992
 
Elitebruger
Tilføjet:
05-04-2013 16:33:23
Svar/Indlæg:
3565/372
NVidia fortalte, at man ikke måtte smide andre kølere på kortet, hvilket slet ikke giver mening, da det er et møg lækkert kort! Men det Gripen har fundet der, ser meget troværdigt ud! 🙂


Rasmus66
 
Elitebruger
Tilføjet:
05-04-2013 16:37:55
Svar/Indlæg:
8762/174
#28

Så vidt jeg kunne læse på de forskellige artikler der var omkring Titan kortene op til launch og nogle uger før så havde Nvidia lukket for non reference design PCB.

Alle kort kunne bruge Nvidia print layoutet, der blev ikke snakket noget om køleren så Gigabyte og andre producenter kan da roligt komme med alternative køler løsninger uden at få Nvidia på nakken.


freak_master
 
Redaktør
Tilføjet:
05-04-2013 16:42:15
Svar/Indlæg:
6368/477

#28

Så vidt jeg kunne læse på de forskellige artikler der var omkring Titan kortene op til launch og nogle uger før så havde Nvidia lukket for non reference design PCB.

Alle kort kunne bruge Nvidia print layoutet, der blev ikke snakket noget om køleren så Gigabyte og andre producenter kan da roligt komme med alternative køler løsninger uden at få Nvidia på nakken.

Rasmus66 skrev d. 05-04-2013 16:37:55


Jo, nVidia bestemmer også at der skal være ref køler på, det fik vi at vide flere gange nede på CeBIT.

Om de har skiftet mening ved jeg så ikke.


Risaan
 
Superbruger
Tilføjet:
06-04-2013 01:57:56
Svar/Indlæg:
279/10
Koolance's Water Block for the GTX Titan Now Available :) man kan da købe SLI vandkøling til titan :)
http://www.tomshardware.com/ne...


freak_master
 
Redaktør
Tilføjet:
06-04-2013 03:28:49
Svar/Indlæg:
6368/477
http://www.hwbot.org/submissio...

Du kan sagtens have 4 Titans sammen...


myrizzle
 
Elitebruger
Tilføjet:
06-04-2013 09:43:18
Svar/Indlæg:
1895/41
Ved godt de får de der kort smidt i nakken af producenterne, men at man uden problemer lige zombie modder et kort til 7500x4 så er man da også ligeglad 😀


Colgate
 
Superbruger
Tilføjet:
08-04-2013 16:26:22
Svar/Indlæg:
162/28
Kanon artikel, men savner noget mere om frame rating (micro stutter), når CF og SLI sammenlignes. Micro stuttering med crossfire kan være næsten 100 % 😲 . Ved godt det først for nyligt er blevet offentlig viden, men det kommer til at overflyde brugt markedet med Radeon grafikkort
Alle multi-gpu ejere burde læse og sælge deres ekstra HD7970 billigt til mig: http://www.pcper.com/reviews/G... (Linket er korrekt)


Svaret blev redigeret 1 gang, sidst af Colgate d. 08-04-2013 16:29:02.


Ciric
 
Elitebruger
Tilføjet:
08-04-2013 17:30:29
Svar/Indlæg:
1881/22
Det er så bare ikke kun CF som har problemer med micro stutter ...det har SLI også.
...og det har været almen viden meget længe 😉


freak_master
 
Redaktør
Tilføjet:
08-04-2013 17:54:20
Svar/Indlæg:
6368/477

Kanon artikel, men savner noget mere om frame rating (micro stutter), når CF og SLI sammenlignes. Micro stuttering med crossfire kan være næsten 100 % 😲 . Ved godt det først for nyligt er blevet offentlig viden, men det kommer til at overflyde brugt markedet med Radeon grafikkort
Alle multi-gpu ejere burde læse og sælge deres ekstra HD7970 billigt til mig: http://www.pcper.com/reviews/G... (Linket er korrekt)

Colgate skrev d. 08-04-2013 16:26:22


http://www.pcper.com/reviews/G...

Tag en kigger på når der køres med vsync, der klare 7970 sig noget bedre end GTX 680.

Det beviser jo også blot det jeg skriver i artiklen, vsync er vejen frem, selvom man kan rende med 500FPS+ er det ikke noget værd, og vsync vil give et meget, meget bedre billede.


sedanen
 
Superbruger
Tilføjet:
12-04-2013 21:05:07
Svar/Indlæg:
41/4
Bare en tanke. Men kunne manglende skallering ved sli ikke skyldes manglende power fra psu!?
En 750 Watter levere jo nok ikke nok peak til to titan og et 5ghz oc?


0raxter
 
Elitebruger
Tilføjet:
12-04-2013 21:33:25
Svar/Indlæg:
301/10
750 Watt burde da godt kunne levere til det setup... specielt af den kvalitet...