Tak for tippet. videocardz plejer at være troværdige, så det er de nok også her. 🙂
#1 jeg skal være ærlig og sige jeg aldrig har læst et opslag der før.. men tænkte at det var interessant læsning 🙂
Turing chippen er godt nok stor i forhold til Ampere. Taget i betragtning, har TU102 4608 cuda cores for den fulde chip. Hvor Ampere har 11520, hvis alle SM er tilgængelige :)
#3 Så vidt jeg har læst kan man ikke sammenligne CUDA cores på Turing og Ampere. Ampere er vist en "mindre" udgave, så det er ikke dobbelt så mange af de samme CUDA cores...
jeg glæder mig til at se om 3070 virklig banker 2080ti over hele linien .. eller om folk har solgt deres 2080ti til billig penge for ingen grund :) . men jeg er også spændt om det er en værdig upgrade for min gtx 1080 :)
Hvis de leaks passer, så er der sgu langt op til 40+% som alle har sagt der ville være i mellem RTX 2080 ti og et RTX 3080
#6 Jeg tror det afhænger meget af titel, opløsning og om RTX er slået til eller ej. 🙂
5# jeg tror 3070 8gb er flaskehalsen i 4K gaming i forhold til 2080TI
8# ja .. jeg venter og se om de 16gb leaks skulle passe .. og evt. Amd leaks med 16gb kort og hvad priserne bliver og ydelse .. og se om man kan være heldig med f.eks 3070 ydelse med 16gb ram .. om det er nvidia eller amd :)
der er (kun) 20fps mere i 4k. beholder vist bare mit 2080ti
#10 2080ti er da også et helt fint kort og hvis man ikke har brug for de ekstra fps så er der ingen grund til at skifte
Rent personligt så er jeg blevet fristet til at gå all-in i år og jeg er lidt lun på et 3090 også selv om det er overkill - men hul i det. Jeg vil op på 4K i år og jeg tror ikke jeg gider at vente på et evt. 3080 ti/Super.
Det hele kommer an på de game benchmarks der snart kommer - Jeg kan selvfølgelig vente til at se hvad AMD disker op med - men lad mig bare være ærlig jeg tror ikke at jeg vender tilbage et AMD´s GPU´er - Jeg fik sgu nok af deres drivere sidste gang - så i slutningen af denne mnd. så ender det nok med at jeg hopper på et Asus RTX 3090 selvom det koster ca. 14.000,-
#7 Korrekt - 40% afhænger af mange faktorer - og spiller man f.eks. et games som Shadow i 4K så kan selv 20-30% gøre en massiv forskel hvis man normalt ligger og roder runder omkring de 70-80 fps og så ryger op over de 100.
Eller går fra 40FPS til 60FPS 😀
Jeg har det ligesom #11. Jeg vil heller ikke vente på Big Navi. Jeg venter dog lige og ser AMD's CPU-udspil 8/10 inden jeg køber nyt mobo og CPU. Med min 8700K og GTX 1080Ti vil det under alle omstændigheder blive en mærkbar opgradering ... håber jeg.
#13 i7 8700 er stadigvæk en fed CPU når man ser på ren gaming og du vinder ikke ret meget ved at skifte til en større Intel eller en Ryzen.
Det er kun hvis du laver andre ting end gaming at det vil give mening at skifte til f.eks. Ryzen
Det er jeg klar over #13, men da jeg også reencoder video fra mit FullHD videokamera, så kunne jeg godt bruge dels lidt flere HK og dels at have 2-4 kerner "fri" til gaming imens. Som det er nu, reencoder den sådan set fornuftigt nok, hvis jeg lader den HELT være imens. Meget mere end 7-kabale, og det tager en krig at reencode. Måske, hvis jeg kunne finde ud af at frakoble 2 kerner på min 8700K, så de kunne bruges til gaming, UDEN det går ud over performancen på de 4 andre? Altså så reencodningsprogrammet KUN kan bruge 4 kerner. I settings i programmet kan jeg dog kun vælge om jeg vil bruge 1 kerne (nej, for så er natten ikke lang nok!) eller alle kerner, samt om det skal CUDA acc.
Derfor håber jeg på, at med endnu flere kerner vil problemet løse sig selv, ellers må jeg høre om nogen ved, hvordan man kan opdele sin CPU til forskellige formål med hver deres kerner. Mit program kan i hvert fald ikke finde ud af at dele resourcer med andre! Det er sgu et noget racistisk program!!
#16
Det kan du nu ret nemt gøre 👍
Jeg tror at RTX 3080 og RTX 2080Ti i real life scenarierne ligger tættere på hinanden end RTX 3070 og RTX 2080Ti. Det må tiden vise, så snart testkortet lander 😉
Dertil tror jeg desværre også at nogle folk har panikket og solgt deres RTX 2080Ti kort unødvendigt billigt.
Hvis nogle af de resultater Videocardz har holder stik, så er 2x RTX 2080Ti også stadig pænt hurtigere end eet RTX 3080, hvilket så også får mig til at spekulerer i om eet RTX 3090 egentlig vil være hurtigere som ellers antaget.
Vi må se indtil at der er nogle håndgribelige resultater.
#16 .- jeg bruger Process Lasso - så kan du kaste rundt med dine kerner som du vil.
Tak #17 Det skal da afprøves i nat!! Jeg kendte godt den med prioritering, men den hjælper mig ikke, men den med CPU-kerner, den ser interessant ud!!!!
#19 Det vil blive undersøgt, tak for info 🙂
#18
Jeg har flere gange skrevet at mit mål er at jeg kan smide selv de mest krævende AAA-games på maskinen og rulle dem med 4K/100+ fps/144Hz så er jeg ganske godt tilfreds og det tror jeg at et Asus RTX 3090 snildt kan klare.
Så mangler du bare at finde den monitor der kan indfri dine mål #21 😉
jeg glæder mig til at se hvor gode de køler er fra Founders Edition både med 3080 og 3070 kort.
#18 Det er selvfølgelig ret interessant. Hvis man kan samle 2x 2080Ti op for 4000 stykket og hvis SLI ellers fungerer upåklageligt. Så er der nok ret meget smæk for skillingen der. 🙂
CDCRenegade skrev d. 12-09-2020 14:49:56
#18
Jeg har flere gange skrevet at mit mål er at jeg kan smide selv de mest krævende AAA-games på maskinen og rulle dem med 4K/100+ fps/144Hz så er jeg ganske godt tilfreds og det tror jeg at et Asus RTX 3090 snildt kan klare.
Det kommer desværre ikke til at ske i FS2020, men det er vist også undtagelsen😉. Ellers i 4K og med 100-130FPS, der ligger jeg på i de fleste AAA titler med 2x RTX 2080Ti, så mon ikke et RTX 3090 kan nær det samme.
Det er lidt træls at Nvlink ikke understøttes med RTX 3080 det ville ellers have været interessant. Måske det kommer med RTX 3080Ti.
#26 Nu er jeg heldigvis ikke til FS så det bliver ikke et problem for mig 😉
Mange AAA titler understøtter ikke SLi - Du spiller nogen der gør - men listen er ikke særlig lang
Når man som dig har 2080ti så er de nye kort ikke så relevante som de er for en del af os - Jeg har et RTX 2080 og det ruller fint i 1440 og knap så flot i 4K - en del titler er der ingen problemer men en del ligger under 60fps og så gider jeg ikke 4K i de titler
En ting mange folk glemmer er VRAM og der vil få større og større betydning - allerede nu er der mange titler der æder 7-80% af VRAMMEN og nogle få det hele og i de kommende år så vil der komme flere titler der er sultne efter VRAM og så er jeg bange for at 10Gb er i underkanten - det er også derfor jeg forventer at der vil komme et 3080 ti/super plus Nvidia vil være sikker på at AMD ikke maser sig ind
Om der kommer et 3090 eller et 3080ti/super med Nvlink tvivler jeg på eftersom det virker som om mange nye AAA- titler slet ikke vil understøtte det - men det kan jo ændre sig.
Selv en del content creators har det lidt svært med 3090 og hvor det passer ind - så giver det fin mening for mig og om et års tid så tror at de vil forstå ideen bag det kort - det er ganske enkelt forud for sin tid men med de kommende AAA-titler som er skabt til at rulle i 4K hvis man vil have max. grafik udbytte af dem så vil de ekstra CUDA cores og den massive klump VRAM på 24Gb give god mening.
Jeg har bestemt mig - jeg napper et Asus 3090 24O Gaming - så er jeg klar til min gaming fremtid ( i det mindste for de næste 3 år 😀)
https://www.asus.com/Graphics-...
#27: Der er altså mange mange mange flere titler som kører og skalerer særdeles god med SLi/NVlink og det mange flere AAA titler end som ml. 2016 og 2017, hvor det virkelig var slemt. Grunden til så mange mener SLi ikke virker med AAA titler er, at der er ingen anmeldere der tester det, og blot konkluderer på tidligere antagelser, og ingen tester det da folk generelt ikke rigtig har interesse i det mere - desværre. NVlink har skubbet skaleringen i den rigtige retning i forhold til tid HB SLi, det er bare ærgerlig Nvidia har limiteret det til kun high-end kort. Bl.a er stacked vram endelig noget man kan drage fordel af i nvlink.
Pt. har jeg ikke mange AAA titler, hvor min NVlink SLi indikator ikke bevæger sig i positiv retning.
NVlink SLi er så vidt jeg kan se understøttet på RTX 3090.
Mine RTX 2080 Nvlink ruller indtil videre ganske fint med DLSS og 4k supersamling hvor FPS'ne i snit ligger omkring de 90~100 (undtagen i FS2020).
Attention: RTX 3090, 3080 GPU Binning Distribution numbers at launch. Your chances of a good card!
https://www.youtube.com/watch?...
30% der Chips mit Bin 0, ca. 60% mit Bin 1 und nur 10% mit Bin 2 für die RTX 3080
Fra igorslab.de. Bin 0 er gennemsnitlig, Bin 1 god og Bin 2 fremragende.
Jeg ser så meget frem til benchmarks. Digital foundry har godt nok mistet meget street-cred, decideret pinligt med deres 1st test. Det er 100% sikkert nvidia har shipped Bin 2 til alle de store techsites.
Men jeg afviser nu ikke at købe et 3080 eller et 3090 😀
Hej
jeg synes at have læst at et 30xx kan læse direkte fra SSD, uden om CPU, hvilket skulle resultere i noget hurtiger load tider osv., men kan ikke finde det nu,
er der en der kan bekræfte eller afkræfte dette?
BR
Manley
#31 Det kommer til at virke på både 2000 og 3000 serien. Men der er ikke udgivet nogen spil endnu, der understøtter det
#31
Det er korrekt, men Windows 10 implementerer det vidst først fra næste år. Desuden er det nvidias modspil til AMD som jo har implementeret det på de nye consoller, som eftersigende skulle fungere bedre end hvad nvdia har lavet.
#28
Har du 2080 eller 2080ti - du skriver forskellige ting i #26 og #28
"Mine RTX 2080 Nvlink ruller indtil videre ganske fint med DLSS ........."
"....der ligger jeg på i de fleste AAA titler med 2x RTX 2080Ti...."
#31 RTX IO, Microsoft implementerer DirectStorage fra den kommende Xbox til windows, så AMD kommer nok med noget lignende i deres RDNA2 kort. Så det kræver både at spil, windows og hardware understøtter det.
Nvidia RTX 3080: Is 10GB Vram enough? Part II
3080 glæder jeg mig til, min 2080 har jeg allerede haft meget glæde af,
rtx er helt utrolig
https://www.youtube.com/watch?... hvis det passer så er jeg stadigvæk glad for mit 2080ti så kan jeg godt vente til vi når til 4080 😉
#38
Alle tal er uden DLSS 2.0 og RTX - Slår du DLSS og RTX til så trækker RTX 3080 og 3090 virkelig fra og giver alle andre kort baghjul - plus 1080p er CPU intensiv og her betyder GPU ikke så meget.
Så vent til den 17. og 24. så kender vi de rigtige tal inkl. 3. parts kort.
Med mindre at alle test viser det er skod kort så jeg klar til at udskifte mit 2080 selvom jeg ikke behøver det
Glæder mig utroligt meget til RTX 3080 - lad os håbe dem der gerne vil have et herinde, rent faktisk også kan nå at få et i første omgang
Jeg har blokeret hele onsdag til at læse reviews på arbejde 😀
Jeg er lige så spændt på at læse reviews af 3090 i forhold til 4k. Selvom skærmen ikke kan købes endnu, så er det 3090 jeg nok vil satse på, hvis der er en rimelig forskel fra 3080 til 3090. Men det varer jo lidt endnu, inden de reviews dukker op.
guru3d plejer at have nogle ret gode reviews
#42 - Jeg tror jeg hopper direkte på en 3090 så snart jeg har læst de første reviews - jeg tror nemlig at 10Gb er for lidt til de kommende 4K AAA titler
#44 Ja de 10GB er ret skuffende, så jeg regner med at vente på at se hvad AMD kommer med. De skulle have 16GB på kortet, så hvis ydelsen (og prisen) ellers er identisk virker AMD som det mere fornuftige køb...
#44 og for os der ikke spiller i 4K er 10gb nok 🙂
Synes sgu at 12K for et gfx kort er meget, men har man gysserne til det, så kan man sgu lige så godt go all in 😀
Ret interessante betragtninger fra AdoredTV: 🙂
Håber da at FE kortene også får en vandkøleplade :P
Håber at de 2 x 360 rads kan være med når de også skal køle min 8700K @4.7Ghz :O
Spørgsmålet er om min EVGA 750G2 kan være med når 3080 bruger flere watt samtidig med at jeg kører et godt OC på min cpu...
#45
Problemet med AMD er deres drivere - så selvom de kommer med et killer kort til en god pris så kan man ende med at skulle bøvle med deres drivere
#46
Yes men jeg er gamer så......... 😉
Gu´fanden er 12-14K mange penge - men osv. og jeg kunne vente til der evt. dukker et 3080 ti/super op med 16-20 Gb - men om det sker og hvornår er rent gætværk - så igen........
#49 Jeg har hørt både negativt og positivt om driverne til 5700XT, men har ikke selv haft erfaringer med dem. Har dog haft 5850, 7970, 280X, 290X og FuryX fra AMD og har aldrig haft problemer med deres drivers, selvom det også dengang hed sig at "AMD's drivers er dårlige". Derimod havde jeg et utal af driver problemer med mit GTX970 og 1050Ti på mit 4K TV, fordi nvidia ikke kunne snøvle sig til at understøtte 4K ordentligt (og 4K video dekodning). Mit nuværende 1080Ti har så kørt ganske fint.
Men summa summarum så har jeg ikke specielt negativ holdning til AMD's drivers. Man kan være uheldig på begge sider af vandet. Og kommer AMD med et killer-kort så er jeg på AMD vognen igen. 🙂
#50
Jeg havde problemer med mine 7970 driveres - så jeg valgt at skifte til 980ti oc og har ikke set mig tilbage siden
#48 Ellers får du bare en god luftkøler til din 8700K. Jeg køler min med luft og det går ganske fint op til ca 5,0Ghz på alle kerner, kører dog 4,8Ghz til hverdag (stadig med luft-køler) og der er den så godt som lydløs.
#51 Så en enkelt dårlig oplevelse for 10 år siden så skal alle have at vide at pga. AMD's dårlige drivers så er det ligegyldigt hvilket kort de kommer med. 🙂
#52 Hvad med min psu... Er den stor nok til både OC på CPU og det merforbrug 3080 har?
#55
Med 750W ligger du lige på grænsen og du skal måske finde en der et nummer større
Fandens....
Har jo lige købt en 1tb ssd også... Moneyhole! 😀
#57
Du siger bare til hvis du vil bytte psu :)
Ligger inde med en corsair hx1000w i skuffen ;)
#58 hehe tror jeg napper en ny Enermax DF Revolution 850 80+ Gold til 1K med frisk garanti, men tak ellers 😎
Ser en fordobling i gennemsnit fra mit 1080Ti 😲
Mht ram mængde: