Nvidia stopper ULI's SLI patch

Diverse d.  06. april. 2006, skrevet af Illuminati 38 Kommentarer.  Vist: 509 gange.

Nvidia har med deres 81.98 driver (og senere) sat en stopper for at boards med ULI chipset kan køre SLI. Driveren detecter om systemet er "patched" med ULI's SLI patch. Hvis den er det, så ændrer Forceware driveren sine installationsrutiner og disabler Multi-GPU support i driveren.

SLI patch was probably the last secret weapon of ULi before it got acquired by NVIDIA earlier this year. It is now confirmed that the SLI patch function on the Uli 1697 will no longer work with Forceware 81.98 and later.

Link:
http://www.ocworkbench.com/ocwbcgi/ultimatebb.cgi?/topic/29/1342.html

DEVIL_DK
 
Elitebruger
Tilføjet:
06-04-2006 17:20:27
Svar/Indlæg:
6531/410
kan man sige andet end dybt latterligt
bare forde nvdia ikke fatter at lave chipset
skal det vel ikke gå ud over os der ved hvem der kan finde ud af sådan noget.
det er jo det samme de gør med intel chipset.

det er så lamt man før lydt til at købe ATI grafikkort bare for ikke at støtte de fjolser til nvidia.



Beaviz
 
Elitebruger
Tilføjet:
06-04-2006 17:22:50
Svar/Indlæg:
3214/18
Havde nVidia ikke opkøbt ULI? ?:(



MADZ
 
Elitebruger
Tilføjet:
06-04-2006 17:24:44
Svar/Indlæg:
2602/173
Kæft nogle idioter mand!!

Der kommer sikkert en fusker-driver!



Emillos
 
Overclocker
Tilføjet:
06-04-2006 17:26:03
Svar/Indlæg:
14079/622
øøøh.. "må" de det ? ?:(

Det er seriøst noget svineri - det her, med opkøbet af ULi og SLi-"inkombabilliteten" på Intels egne chipset.
Men virkede den der patch egentlig ordentligt ?


DEVIL_DK
 
Elitebruger
Tilføjet:
06-04-2006 17:28:56
Svar/Indlæg:
6531/410
Microsoft skulle lige lave så man kun kunne bruge ms programmer i windows så skulle i bare se en blade.



Pederrs
 
Elitebruger
Tilføjet:
06-04-2006 17:33:22
Svar/Indlæg:
1198/35
Vil det sige, at hvis man køre med en driver under 81.98 vil man stadig kunne bruge SLI patchen?

For så kan det være derfor det ikke virkede dengang jeg prøvede med 2 x XFX 7900GTX


Illuminati
 
Elitebruger
Tilføjet:
06-04-2006 17:39:20
Svar/Indlæg:
10398/435
#alle, rolig nu. 1 fjer, 10 høns? :)

Nvidia ejer ULI. Økonomisk går det udover dem selv.
Hvad det angår forbrugerne - "specs are subject to change without notice". Men ja det er stadig surt!

#4, der snakkes ikke om Intel patchen. Intel patchen var blevet lavet ud fra ULI's patch, så helt lovligt kan det jo ikke have været. Intel boardene som skulle køre med det patch var aldrig markedsført som SLI boards.


DEVIL_DK
 
Elitebruger
Tilføjet:
06-04-2006 17:50:18
Svar/Indlæg:
6531/410
#7
det ændre da ikke at det er noget svonerri at nvidia direkte
forhendre konkurencen

alle ved intel 955 og 975 kan køre sli hvis ellers nvidia ville tillade det.





Emillos
 
Overclocker
Tilføjet:
06-04-2006 17:52:50
Svar/Indlæg:
14079/622
->#7
Nå okay.. Så det SLi-board der var en test af her for nylig, benyttede altså den omtalte patch ?



Woodgnome
 
Elitebruger
Tilføjet:
06-04-2006 17:54:05
Svar/Indlæg:
1888/560
#7 det vil gå mere ud over dem hvis de enabler SLI på ULi baserede boards - de har nok en pænt stor lager af nForce 4 SLI chips liggende og de er pludseligt ikke så seje, hvis ULi M1695/M1697 også kan køre SLI.


Illuminati
 
Elitebruger
Tilføjet:
06-04-2006 17:56:02
Svar/Indlæg:
10398/435
#8, hvad har Intel955/975 med ULi M1697 at gøre? bruges M1697 på boards med Intel955/975? jeg er ikke så meget inde i Intel, men jeg mener ikke at de to ting har noget med hinanden at gøre...

Konkurrencen? Asrock konkurrerer ikke med nvidia.. Nvidia laver ikke bundkort... Uli er ikke konkurrence, da de er eget af nvidia.


red_martians
 
Moderator
Tilføjet:
06-04-2006 18:02:31
Svar/Indlæg:
7881/1165
#8: tjaaa.. der er jo ike meget fidus for nvidia ved at udvikle et intel-board, hvis ikke det kan noget specielt overfor de andre :00
Desuden er ATi da ikke meget bedre... De har da kun valgt at bruge intels boards fordi de selv har nogle skod-chipsæts og fordi der ikke er nogle der gider at rode med crossfire fordi det er inkompatibelt og besværligt..
Det er ganske enkelt en desperat løsning for ATi at komme ind på dual-GFX-markede ved at gå hånd i hånd med intel.

og hvad er det for en konkurrence du mener??
At nvidia-grafikkort ikke kan på andre chipsæts end deres egne... ATi CF kan jo heller ikke virke på nvidia's bundkort, det er da generelt endnu værre at nVidia-grafikkort i almindelighed bliver langsomme, eller slet ikke fuingere på ATi-bundkort :00



Illuminati
 
Elitebruger
Tilføjet:
06-04-2006 18:03:58
Svar/Indlæg:
10398/435
#alle, i læser selektivt i de ting jeg skriver..

Jeg synes det er surt for forbrugerne, det sagde jeg allerede i #7, min første post.
Jeg siger bare at nogle individer her, klatter ting på nvidia som slet ikke har noget med sagen at gøre! det er ikke konkurrenceforvridende. nvidia har ikke noget med intel at gøre før man køber NF4-Intel.


DEVIL_DK
 
Elitebruger
Tilføjet:
06-04-2006 18:04:07
Svar/Indlæg:
6531/410
nvidia laver chipset der stinker
derfor spærre de for intel og derres nu egen uli forde ingen med en intel cpu vil køre med derres nforce4 lort.

hvis du ikke kan forstå det er bedre for os forbrugere hvis vi kan købe det bundkort vi gerne vil have og derefter vælge det grafikkort vi kan lide så fatter jeg minus.

igen kan vi trække M$ frem der ikke engang må smide en media player med i derres software forde det åbenbart er konkurance
forvridning.
'
men nvidia må gerne nægte at tillade sli suport på andet end derres egen chipset.

her må jeg tage hatten af for ATI der har givet os et valg flot ATI



Illuminati
 
Elitebruger
Tilføjet:
06-04-2006 18:08:21
Svar/Indlæg:
10398/435
Kan man køre Crossfire med Intel på et board som ikke har ATI chipset?


red_martians
 
Moderator
Tilføjet:
06-04-2006 18:09:08
Svar/Indlæg:
7881/1165
Tjaaa... ATi udvikler diractX10 sammen med M$ ... nVidia får bare leveret oplysningerne om det... Er det forvridning :00
nVidia prøver ganske enkelt at presse de sidste klejner ud af et (enigt) elendigt nForce4-chipsæt til intel.
Men jeg synes den går begge vejen, prøv du lige at se om du kan nVidia-grafikkort på ATi-chipsæt.. og da slet ikke SLi...
nVidia kan da ikke gøre for at intel har valgt ATi som chipsæt-partner og ikke dem...
Køb da S3.. de kan dual på alle chipsæt ;) :e



red_martians
 
Moderator
Tilføjet:
06-04-2006 18:10:31
Svar/Indlæg:
7881/1165
#15: ja.. hvis der er to grafikslots og intel-chip/9xx så ja...
Det er kun det gamle (kan sgutte huske hvad det hedder) men der er kun et intel chipsæt der kan SLi. :)



DEVIL_DK
 
Elitebruger
Tilføjet:
06-04-2006 18:15:04
Svar/Indlæg:
6531/410
#15
ja 955 og 975 chipset fra intel kan køre både CF og SLI
ATI har frigivet Cf til kørsel på intel chipset.

problemet ligger i at sli ikke er muligt forde nvidia nægter at give sli fri til intel chipset.

#16
det er vel lidt nvidia egen skyld de ikke er med til dx 10 de har vel fået tilbudet , syntes at kunne huske de ikke ville betale det det koster at være med.

at ati chip set stinker kan vel ikke komme bag på nogle se hvor mange år det har taget dem at lave brug bare grafikkort.



red_martians
 
Moderator
Tilføjet:
06-04-2006 18:33:19
Svar/Indlæg:
7881/1165
#18: de har da altid lavet brugbare grafikkort.. de har da ikke være så dårlige som nu :00
ej pis.. det er op til folk selv at for stå det
Hviis ATi ikke gjorde det (altså frigivet) tror jeg at intel havde set sig sure på dem... intel laver ATi-bundkort... De har et kanont godt samarbejde de to, ligesom nVidia hygger sig med AMD.. Så'n er det bare. ATi står jo også jo også udenfor når det handler om AMD :)
Og forstår da godt nVidia, at hvis intel ikke gider at arbejde sammen med dem ligesom ATi, så er det vel ganske forståeligt..




Fearless
 
Elitebruger
Tilføjet:
06-04-2006 18:49:31
Svar/Indlæg:
4536/104
Nu ved jeg ikke med jer andre men at folk bliver så pisset af fordi de er gale på nvidia generalt det syntes jeg sku ærlig talt er noget pis.. jeg har det stort set på samme måde med ATI .. de chipsets jeg har prøvet med dem kunne ikke køre ordenligt med nvidia gfx kort og desuden kan man sku da ikke blive så pissed over at nvidia bare ville sørge for at deres Nforce bundkort slår igennem på alle kanter... IMO er det sku noget pis at sammenligne nvidia med microsoft på det der grundlag.

Desuden er de sku stort set lige gode om det alle sammen der er ikke mange ting der er kompatible med hinaden uden en hammer. se nu bare AGP/PCI-E den eneste store ting det har givet er jo SLI/CF som vist stadig ikke engang giver optimalt ydelse i ting ud over benchmarks. Hvis man bare havde færdig udviklet SLI/CF før det var sendt på markedet samt færdigudviklet chipsetsne til dem og havde behold AGP8 indtil da så var det sku nok gået meget bedrer det hele. :i

:00



red_martians
 
Moderator
Tilføjet:
06-04-2006 19:11:11
Svar/Indlæg:
7881/1165
#20: PCI-e har desværre ikke noget at gøre med hastighed. Det er fordi at de er seriele. PCI og især AGP har så mange følsomme printbaner på bundkortet at der efterhånden ikke er plads til dem jo mindre man laver dyre 6lags PCB'er eller lignende. Samtidig med er PCI-e langt mere fleksipelt end PCI/AGP. et 16x-kort passer perfekt i et 1x-slot (hvis man lige skærer enden af slottet).. og et 1x-kort passer nydeligt i et 16x osv.
Desuden kan AGP sagtens laves med 2 AGP-stik, bare ingen der havde gjort det.. Og dual-chips design har vi haft en hel del af til AGP. Voodoo5, VolariV8, ATi Maxx osv.

Men ja... provokerer bare ham djævlen (fordi han kan ta' det, og jeg synes det er sjovt)... han skal ikke komme her og tro at ATi er gudemærket fordi de har samarbejder med intel..hehe
:e


Illuminati
 
Elitebruger
Tilføjet:
06-04-2006 19:26:43
Svar/Indlæg:
10398/435
Mars-mand. AGP kan da ikke splittes op i eksempelvis 2xAGP4x. Man ville jo ikke kunne lave load-balancing på AGP som man kan med PCIe. Man ville nok kunne lave board med dual AGP kort, men ydelsesmæssigt ville det ikke give mening da man ikke ville kunne få kortene til at arbejde sammen. Så skulle det være CPU'en som beregnede load-balancen, men det ville jo give er ret stort punish.


DEVIL_DK
 
Elitebruger
Tilføjet:
06-04-2006 19:28:23
Svar/Indlæg:
6531/410
#21
LOL
nu er jeg faktisk intel/nvidia mand hvis jeg er mere til noget end noget andet.

Derfor sybtes jeg det er pisse surt at sli ikke virker med intel chipset.

jeg skal hygge meg med noget ati cf imorgen på job det skal squ nok blive morsom , især når min boss mener en 500w psu kan trække 2x1900xtx i cf og en kraftig intel cpu ROFL.

så gik der tid med det :e ken jeg sige når jeg går hjem imorgen.

frodelen ved det er så jeg slipper for at købe ati cf kort forde jeg kan prøve de nye ting på jobbet :) dejlig billigt for mig
8)

men damn jeg er træt af vi ikke har 3dfx mere tror godt de kunne have givet ati og nvidia kamp til stregen .



#24
B@NG
 
Elitebruger
Tilføjet:
06-04-2006 19:31:07
Svar/Indlæg:
3640/1231
Det er jo klart at ATi ikke laver chipset der får konkurrentens kort til at yde bedre end deres egne.

Patchen der ved jeg sq ikke hvad jeg skal sige til, deres produkt, deres penge, deres regler. Utilfreds, så køb et andet ;)

Syntes stadig det er mere humor at ATi bruger ULi på deres bundkort.
Må være noget irriterende at blive parret med konkurrenten.
Dog skal man ikke tage fejl af ULi. Det kan godt være de er blevet købt af nVIDIA, men de er stadig en meget stor og selvstændig virksomhed.


red_martians
 
Moderator
Tilføjet:
06-04-2006 20:56:57
Svar/Indlæg:
7881/1165
#22: Det er en del af AGP8x-standarden.. er helt 100 på det. De andre kan nemlig ikke. Det var nemlig oppe at kører den gang da vi fik AGP8x, at det blev præcneteret at man ville kunne kører med 2 grafikkort på én gang. og muligvis noget moederne SLi.. Der var bare ingen der udnyttede det før PCI-e, muligvis fordi de vidste at AGP dengang kørte på sidste vers.


Fearless
 
Elitebruger
Tilføjet:
06-04-2006 21:13:49
Svar/Indlæg:
4536/104
#21 det var nu heller ikke fordi jeg mente at PCI-E gav ydelse.. man har jo bevist at ydelses forskellen på PCI-E og AGP8 ikke er speciel stor.. men ska da ikke ku sige om det ændre sig når vi får nolge vildere gfx kort.. :p

vi kan vel kun håbe :e

men min pointe er bare at nu hvor der alligevel er så fandens lidt kompabillitet i pc verdenden også bare mellem forskellige mærker af bundkort/ram/gfx-model/mærker så er det jo småting at nvidia trækker sli understøttelsen tilbage på Uli chipset.. desuden skulle man vel mene at enhver med repekt for sig selv køber et Nvidia bundkort hvis de vil køre SLI li som man vel ka sige sig selv at et ATI bundkort er bedst til CF ... det er der vel ikke de store spørgsmåls tegn over.. at Intel så bare ikke lige fatter at indgå ordentligt sammarbejde med nvidia for at få sli på deres bundkort med intel chipset tja det er vel bare intels problem, vær sure på intel og ikke nvidia det tror jeg man får langt mere ud af.. :p

ej spøg til side men jeg holder nu på at hvis alt skulle være kombatibelt så skulle vi ha bundkort fra intel og AMD der ku køre med modstandernes cpu´er ... det kunne da være sjovt eller nå ikk.. :p

Generalt ka det vel bare siges at jo flere penge virksomhederne kan presse ud af os des gladere er de .. der er ikke megen brugervenlighed i hardware verdenden nutildags det kan vi vel li så godt indse.




Emillos
 
Overclocker
Tilføjet:
06-04-2006 21:19:52
Svar/Indlæg:
14079/622
->#25
Det har du ret i.. Jeg ved at Alienware havde noget "AGP-SLi" oppe at køre, men de nåede ikke at lancere det, før PCI-E kom(og med det, SLi).



Shutdown
 
Elitebruger
Tilføjet:
06-04-2006 22:10:56
Svar/Indlæg:
8947/160
26*...Der var nok mange der gerne ville have et godt stabilt Intel chipset til deres AMD 64...!! :e


mr.don
 
Elitebruger
Tilføjet:
06-04-2006 22:27:18
Svar/Indlæg:
1762/36
Tjaah, se det fra den lyse side - så længe der er noget som passer sammen, ikke?..

Sidder selv med 2 systemer, og har prøvet at holde mig så langt væk fa nVidia som muligt - da deres forretnings-metoder ikke falder så meget i min smag, - lidt samme følelse har jeg med Intel, men Intel har også dårlig preformance :p...

Dog er det stadig ikke en religion, f.eks hvis Intel laver et produkt som er væsentligt bedre/billigere en AMD's (som Conroe) så skal man da heller ikke være bleg for at nuppe sådan en...

Men om det er konkurrenceforvriddende, ja selvfølgelig er det det, og sådan skal det være (tænk hvis alle var top-hæderlige) det er jo business om kroner og øre, hvis vi kan spænde ben for koonkurrenten og tjæne et par milioner (miliader?) pådet stunt - så kom ikke her og sige at det ville man holde sig fra for det er jo ikke pænt og gøre...

Don takker af - sov godt


Lars_hjort
 
Elitebruger
Tilføjet:
06-04-2006 22:54:11
Svar/Indlæg:
1900/33
#20/#21/#22/#25/#27

Læs afsnit 5.2.3 s103

http://www.motherboards.org/fi...

Og tag og læs den hele, spændene læsning:p

/Lars


Illuminati
 
Elitebruger
Tilføjet:
07-04-2006 00:52:25
Svar/Indlæg:
10398/435
#30, hey godt at se andre læse specs :) Netop det at AGP er baseret på data allokering via GART apeture pages vil gøre at sammenarbejdende grafikkort vil have et ondt punish på cpu, da det i sidste ende vil være den som skal stykke data'en sammen.

Thus, in the absence of any sort of remapping
mechanism, these pages appear non-contiguous to the rest of the system and require scatter/gather
hardware in each device that will access the buffers to deal with the discontinuity.
Like AGP, AGP3.0 provides a solution to this problem in the form of an AGP Graphics aperture. The
AGP aperture is a physically contiguous range of the physical address space where AGP3.0 Master
accesses directed to it are re-mapped (translated) to potentially physically non-contiguous pages.
AGP3.0 Master translation is accomplished through the AGP Graphics Aperture Re-mapping Table
(GART). For the purposes of translation, the AGP aperture range is split into a series of aligned
regions, each such region is termed an AGP aperture page. Each AGP aperture page has a
corresponding translation in the GART.


"Alt" data fra gfx'et skal remappes via GART til system-ram, herfra kan det så samles af cpu'en.. Da AGP netop kræver GART-mapping, vil "SLI"lignende konfigurationer være ret så håbløse.


Lars_hjort
 
Elitebruger
Tilføjet:
07-04-2006 07:35:35
Svar/Indlæg:
1900/33
#31 Nok derfor vi kun så gfx me d2 core's til AGP og ikke SLI!

/Lars


Kim
 
Superbruger
Tilføjet:
07-04-2006 14:33:58
Svar/Indlæg:
772/50
fuck noget pis! seriøst skal samle en maskine til min bror som kun skal bruges til gaming, og det var planen at købe sådan et Asrock SLI32 ting der, men neeej jeg skal ha et hundedyrt nForce 4 bræt det kan de ikke bilde sig ind!.. så må det bare blive en uden sli, nægter at samle noget med nForce 4 nu..


[G.N.U.]
 
Elitebruger
Tilføjet:
07-04-2006 20:02:56
Svar/Indlæg:
2175/21
hvad gør de så med deres nye datterselskab...nu kan folk jo rent faktisk sagsøge asrock, som kan gå videre til uli som faktisk rammer nvidia...fordi de står til at kunne køre sli i specifikationerne .....?


Lars_hjort
 
Elitebruger
Tilføjet:
07-04-2006 21:43:05
Svar/Indlæg:
1900/33
#34 Nej, det kan forbrugerne ikke! Se #7

Hvad det angår forbrugerne - "specs are subject to change without notice"

/Lars


Kim
 
Superbruger
Tilføjet:
08-04-2006 17:40:12
Svar/Indlæg:
772/50
#35 det gælder da ikke SW, det er jo nVidia der laver "the change" i deres drivers, ren fysisk er der stadig mulighed for SLI i brættet..


Lars_hjort
 
Elitebruger
Tilføjet:
09-04-2006 19:21:42
Svar/Indlæg:
1900/33
#36 SLI er da en del af specifikationerne, såvidt jeg ved er specifikationer alt det en given dims kan! Dvs SLI også er en specifikation?:(

/Lars


Gripen90
 
Senior Skribent
Tilføjet:
08-06-2006 00:30:18
Svar/Indlæg:
15982/637
Fedt man opretter en tråd om hvilket board med SLI man skal købe, men absolut ingen respons, og så finder man ud af det her efter bundkortet Asrock 939SLI-eSATAII er bestilt og afsendt :x