Grafikkort, AMD/ATI d. 16. juni. 2015, skrevet af morra19 94 Kommentarer. Vist: 2503 gange.
#18
TAK! Endelig et kvalificeret svar :)
Mht varme osv, har der været et par reviews, der har nævnt gtx 980ti havde problemer med varme ved spil, at det blev 8x grader og clokkede ned.
Hmm men næste gode spørgsmål, er man med HBM ram ikke ved at ramme Max overførsel til pci.ex16, eller ved xfire x8,x8?
Før eller senere må ens bundkort vel lave en flaskehals?
Gripen
Lad os se når der kommer reviews på bordet... Jeg syntes bare det er synd at folk som dig og Kvist køber 3stk Gtx 980 ti uden i aner hvad amd kommer med og alle de 970 du havde før.. Når amd virkelig har brug for støtten og de har haft 295x2 som køre genialt jeg fatter bare ikke i er så ligeglad med konkurrencen når amd virkelig har brug for noget omsætning. Jeg har købt 5stk 290x samt 1stk 295x2 og mere til på under 1 år... Hvis vi skal holde amd kørende må vi sku hjælpes ad.. Jeg er selvstændig og sælger udelukkende amd maskiner da jeg virkelig kæmper for deres sag for ellers ender vi sku med nvidia tager 10000kr for deres næste flagskib. Førhen hed det sku maks 5000kr for det største higend vi kunne købe.
Det tyder jo på uanset hastighed på det nye fury kort køber du åbenlyst flere 980 ti med glæde så der er da ingen tvivl om du følge den grønne vej uanset hvad.
Jeg syntes personligt det ser ud til AMD kommer lidt på banen igen.
såfremt de kan få deres FIJI release ordenligt ud.
desuden er et rebrand af sidste års modeller heller ikke helt tosset, da de jo kommer til at være super billige med latterlig performance :)
36# Nu ved jeg ikke om du så hele deres "launch" men han sagde flere gange at de havde verdens hurtigste grafikkort (Det tror jeg simpelthen ikke de ville gøre hvis ikke der var en smule sandhed i det, det ville da være at grave sin egen grav). Om det så er 2-5% er imo ligemeget, bare de er "med igen", og deres ydelse pr watt ser jo også ganske fornuftigt ud, ligesom de har flere interessante kort (mini itx, vandkølede modeller osv, "billige" finpudsede 8gb 390-390x kort osv) Nu skal vi bare se hvor meget de har tænkt sig at presse Nvidia med pris/ydelse som egentlig er det jeg syntes er interessant, altså de har jo allerede en vinder med deres 295x2 som til prisen vel stadig er det kort der pumper flest fps ud i til prisen i de helt høje opløsninger.
Men stadig, hvis Fiji med sine 4gb hbm er rigeligt til 4k er der jo ingen problemer. Og måske forsvinder problemet af sig selv hvis man kommer til at udnytte ALLE sine grafikram i dx12. Hvad koster en fornuftig 27/30" 2560x1440 skærm i dag.?
Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5
Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5
Du får stadigt kun 4Gb pr. GPU
Man har aldrig fordoblet den effektive ram mængde i SLI/CF
Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5
Du får stadigt kun 4Gb pr. GPU
Man har aldrig fordoblet den effektive ram mængde i SLI/CF
Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"
Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5
Du får stadigt kun 4Gb pr. GPU
Man har aldrig fordoblet den effektive ram mængde i SLI/CF
Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"
Nej, indholdet af rammen behøves bare ikke være spejlede ved de to GPU'er (som det gør ved DX11), men det betyder ikke at GPU'erne kan bruge hinandens ram.
Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5
Du får stadigt kun 4Gb pr. GPU
Man har aldrig fordoblet den effektive ram mængde i SLI/CF
Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"
Nej, indholdet af rammen behøves bare ikke være spejlede ved de to GPU'er (som det gør ved DX11), men det betyder ikke at GPU'erne kan bruge hinandens ram.
Så tror jeg desværre vi er mange som kommer til at føle os dumme, og ikke mindst "snydt"
Eks se #58.
Syntes bare alle siger at dx12 vil kunne ligge vrm sammen når de kommer i sli/cf
Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5
Du får stadigt kun 4Gb pr. GPU
Man har aldrig fordoblet den effektive ram mængde i SLI/CF
Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"
Nej, indholdet af rammen behøves bare ikke være spejlede ved de to GPU'er (som det gør ved DX11), men det betyder ikke at GPU'erne kan bruge hinandens ram.
Så tror jeg desværre vi er mange som kommer til at føle os dumme, og ikke mindst "snydt"
Eks se #58.
Syntes bare alle siger at dx12 vil kunne ligge vrm sammen når de kommer i sli/cf
Tjho, men hvordan skulle en GPU kunne hente med andet end PCIe hastighed på tværs af kortene, det er jo en 20-30 GBps mod 512Gbps....
Tak #70
Så fik vi dx12 på plads
Tror ikke der skal meget kodning til, for at fortælle gpu 2 eks klare bund, imens gpu1 klare top.
Og muligvis er det slet ikke nødvendigt at gøre "pr spil" men simpelthen lave det i en driver?