nVIDIA: Ingen SLi-licens til INTEL

Diverse d.  09. juni. 2007, skrevet af Emillos 18 Kommentarer.  Vist: 716 gange.

Så sent som i går, berettede vi om, at nVIDIA angiveligt skulle have licenceret deres SLi-teknologi til Intel, til brug i deres chipsets. Men i dag siger Nvidia altså, at der ikke er hold i historien, og forkaster rygterne om licenseringen.



Derek Perez, den PR-ansvarlige hos Nvidia, har udtalt at NVidia ikke har underskrevet nogen aftale med INTEL, og at SLi-understøttelse fortsat vil være forbeholdt deres egne chipsets.
Intel skulle ellers have nævnt i en præsentation, at de havde fået en SLi-licens, og yderligere har Intels partnere på Computex bekræftet dette.

Forvirringen er total...

Link til kilde: http://www.theinquirer.net/default.aspx?article=40224
"SLi til INTEL": http://hwt.dk/newsdetails.aspx?NewsID=13538
Amin
 
Superbruger
Tilføjet:
09-06-2007 23:00:56
Svar/Indlæg:
205/51
Behøver jeg at nævne, hvor dårligt et rygte The inquirer har, når det kommer til at lave påstande uden nogen hold i?

Det er i hvert fald meget sjældent, at hardware-brugere på engelske hardware-forums anerkender theinquirer.net som en saglig og brugbar kilde.


BeoWulf_Beo
 
Superbruger
Tilføjet:
09-06-2007 23:07:26
Svar/Indlæg:
1186/81
det må de sq selv om nvidia. men så må de sq se at smide et SLI bundkort ud med DDR3 support


DEVIL_DK
 
Elitebruger
Tilføjet:
10-06-2007 03:04:16
Svar/Indlæg:
6531/410
hvorfor siger intel ikke bare nvidia ikke må lave chipset til intel cpu´er.

så skal du se nvidia få fingeren ud og lave sli suport til intel chipset.

dælme surt vi kun har monopoldia og loserati savner virkelig en 3 gfx chip fabrikant.


Advanced
 
Elitebruger
Tilføjet:
10-06-2007 03:07:51
Svar/Indlæg:
6899/119
#3

nVidia klarer sig nok uden chipsets til Intel platforme, hvis det kom dertil, skal du se ;)


vanovich
 
Elitebruger
Tilføjet:
10-06-2007 10:31:43
Svar/Indlæg:
3972/242
det er ret irreterne ,selv de ny x38 chipset boards ,ser ud til kunne at understotte cf 😩


yupper
 
Elitebruger
Tilføjet:
10-06-2007 10:50:33
Svar/Indlæg:
1349/11
Så kunne det da være at man skulle til at skifte over til Ati grafikkort fremover, har ellers altid kørt med Nvidia kort. Så stor forskel er der nu ikke.


Springer
 
Elitebruger
Tilføjet:
10-06-2007 11:20:49
Svar/Indlæg:
765/28
Men er det ikke de færreste der rent faktisk bruger SLI. - Det kunne være sjovt at se en aftemning om hvor mange her der bruger SLI.
Personligt gider jeg ikke sli - man køber et grafikkort og for scoren 100 ( bare for et indeks skyld) og køber man et kort mere - som skal være det samme, så får man scoren 150.
I stedet holder jeg mig til at man køber et godt kort, og så opgraderer lidt oftere. For så får man også kort der understøtter nye "Eye-Candy" effekter.
Og ikke at forglemme - man får også en lavere el-regning


vanovich
 
Elitebruger
Tilføjet:
10-06-2007 12:18:55
Svar/Indlæg:
3972/242
hihi ,hvis det var el regning jeg skulle tage hensyne til ,skulle jeg for længst skifted det hele .vil tror selve vapo bruger det samme som 3 alm pcer 😲


Advanced
 
Elitebruger
Tilføjet:
10-06-2007 12:51:29
Svar/Indlæg:
6899/119
#7

Det giver jo ingen mening det der?

I rigtigt mange spil får du også markant ydelsesboost ved SLI.

Det er altså ikke kun benchmarks der kan udnytte det.


Mentos3
 
Elitebruger
Tilføjet:
10-06-2007 15:21:16
Svar/Indlæg:
4230/89
theinquirer.com skrev da selv igår at de netop gerne ville give Intel licens til at Lvae SLI til nVidia 😐
tvivler nu også lidt på deres troværdihed nogengange


#9 ja jeg mener nu også forøgelsen er oppe på omkring +80%..!?



DEVIL_DK
 
Elitebruger
Tilføjet:
10-06-2007 15:25:59
Svar/Indlæg:
6531/410
det er for mig ikke så meget et ? om at køre sli.

mere det princip at jeg skal squ nok selv bestemme

hvad hardware jeg vil have.

det kan ikke passe at nvidia skal bestemme at hvis jeg vil køre med en intel cpu
og have mulighed for sli ja så skal jeg tvinges til at bruge deres skod chipset.

lidt det samme med tdc og adsl vil man have det skal man også have en fast tlf.

det ville svare til at min købmand sage for at købe en liter mælk skal du købe 1/4 l
piske fløde også og det skal være fra arla.


MJENSEN
 
Superbruger
Tilføjet:
10-06-2007 15:29:43
Svar/Indlæg:
1233/50
noget siger mig at mit geforce 7600gs bliver mit sidste nvidia kort


Little_mee
 
Superbruger
Tilføjet:
10-06-2007 16:02:26
Svar/Indlæg:
96/17
du siger noget der #11!! det lydder som en kopi af den virklige verden :no: 😩


Kasseren
 
Elitebruger
Tilføjet:
10-06-2007 16:36:19
Svar/Indlæg:
1814/48
Grunden til at The Inquierer har et dårligt ry, men til gengæld ofte er først, er at de har det med at gætte sig frem til hvad de ukendte dele af en historie er.

Den ovenstående historie er sikkert udsprunget af det samarbejde der var tidligere på året, mellem nVidia og Intel, hvor der skulle have været en teknologiudveksling, af teknologier som ingen af dem ville ud med hvad var. The Inq har sikkert tænkt at SLi var en af teknologierne, da Intel med deres nuværende Crossfire support jo kommer til at støtte AMD, da ATi er de eneste der laver grafikkort til denne standard. Det var et godt bud og resultatet er da også godt, en afklaring af at Intel ikke fik SLi teknologi, men noget andet, i samarbejdet.

Hvad det så var er det spændende! Grafikteknologi, så de kan begynde at lave bedre grafikkort eller måske en hånd i deres arbejde med Stream processing?(nVidia har jo lige færdiggjort deres CUDA teknologi) Kun de selv ved det...


#15
mp_3
 
Elitebruger
Tilføjet:
10-06-2007 16:48:18
Svar/Indlæg:
3588/418
CUDA ?


Emillos
 
Overclocker
Tilføjet:
10-06-2007 17:04:08
Svar/Indlæg:
14079/622
->#15

Dobbeltve dobbeltve dobbeltve punktum gukel punktum det kå 😛

http://hwt.dk/newsdetails.aspx... 🙂


bamselinen
 
Elitebruger
Tilføjet:
11-06-2007 12:00:27
Svar/Indlæg:
2145/218
Da jeg kørte med sli var ydelsen jeg fik ekstra minimal men det var nok mere pga. den opløsning jeg kørte med i de fleste spil kunne jeg ikke mærke en ydelse der retfærdiggører en så stor prisforskel.

just my 2 cent


Kasseren
 
Elitebruger
Tilføjet:
11-06-2007 13:45:31
Svar/Indlæg:
1814/48
#15 CUDA er en programmeringsplatform til nVidias 8xxx serie af grafikkort, der gør det muligt for programmørerer at lave programmer i et programmeringssprog der på mange måder ligner C programmeringssproget(som bruges på almindelige processorer). Det er ikke den eneste løsning men virker i øjeblikket som den nemmeste for programmører at gå til.

Når grafikkortet bruges til beregninger kaldes det Stream processing og kræver en GPGPU(General Purpose Graphics Processing Unit) formålet er at man udnytter de styrker som den processor der sidder i et grafikkort har, i forhold til den almindelige CPU.

Et af de steder vi nok kommer til at se teknologien, inden for en overskuelig tidsramme, er at man planlægger at grafikkortene skal stå for beregningen af fysik i spil. Dette kan give mere realistiske effekter og sandsynligvis åbne for nye taktiske muligheder, da et træ eksempelvis kan fældes så det ligger i vejen eller vindretningen kan have indflydelse på hvem der opdager modstanderen først.

Allerede i dag bruges Stream processing, dog af ATi og ikke med CUDA programmering, til folding@home, hvor teknologien har gjort at de der bruger et Radeon grafikkort i et stykke tid har været dem der var i stand til at lave de hurtigste beregninger.

Der er mange ideer til hvad Steam processing kan bruges til i fremtiden, udover fysikberegninger og videnskabelige søgninger efter svar, blandt andet er det allerede set som en optimal løsning til sikkerhedssystemer da grafikkort hurtigere kan sammenligne selv komplicerede data. Andre mener at vi med Steam processing skal begynde at se i retninger som vi ikke har turdet kigge i før, da de ville kræve for meget af CPUen.

Alt i alt er det meget spændende! Om det bliver CUDA(nVidias bud) eller en af de andre GPGPU programmeringssprog, hvoraf nogle er opensource, der vinder krigen får vi at se i de kommende år hvor vi forhåbentligt også får lov at se lidt af hvad denne teknologi kan bruges til, udover fysikberegninger.

Lidt læsestof til de intereasserede:
http://en.wikipedia.org/wiki/G...
http://developer.nvidia.com/ob...
http://en.wikipedia.org/wiki/C...
http://www.gpgpu.org/