AMD: Fusionen sker i 2011

Diverse d.  03. august. 2009, skrevet af Emillos 11 Kommentarer.  Vist: 1054 gange.

Der har været spekulationer omkring, hvorvidt AMD lancerer deres Fusion-projekt i 2011 som planlagt, eller om de venter til 2012, hvor en produktionsteknologi med 22 nanometers transistortæthed forventes klar.

Men i dag cementerer AMD, at Fusion fortsat forventes lanceret i 2011, produceret med 32 nanometers transistordensitet.



Liano skulle være det første produkt, Fusion-projektet kaster af sig. En notebook-platform, hvori CPU og GPU altså angiveligt vil være fusioneret til én chip, der i øvrigt får DirectX11-understøttelse.

Selv hvis 2011-tidsplanen holder, kan det dog være ret sent for AMD, siden konkurrenten Intel allerede i første kvartal 2010, vil lancere "Clarkdale", der indeholder nogle af de samme ting, som AMD's Liano - blot med noget svagere specifikationer.



Link til kilde: http://www.fudzilla.com/content/view/14897/34/
besse
 
Elitebruger
Tilføjet:
03-08-2009 13:47:53
Svar/Indlæg:
1326/83
Bliver spændende at se om det bliver til noget, og hvad det vil gavne forbrugerne.


bornholm
 
Elitebruger
Tilføjet:
03-08-2009 14:03:11
Svar/Indlæg:
2958/84
Er det kun en tendens på notebooks eller pliver det også aktuelt på pc området, for så syntes jeg det går i den forkerte retning, at man bliver tvunget til at både at skulle skifte CPU + GFX, hvis det kun er GFX man har brug for at opdater, det kunne gåhend og blive en meget dyr løsning og hvis man så sætter et ekstra GFX i sin maskine vil der så være muglighed for at køre dem med Crossfire? 😕


Hampen
 
Superbruger
Tilføjet:
03-08-2009 14:25:27
Svar/Indlæg:
278/42
Jeg tror kun at vil blive aktuelt for notebooks og htpc, da highend gaming vil kræve mere end de kan yde... i de første par år i hvert fald.


bornholm
 
Elitebruger
Tilføjet:
03-08-2009 14:53:42
Svar/Indlæg:
2958/84
En tin jeg tit har tænk på, hvorfor man ikke Laver GFX. kort så man kan udskifte
GPU.-processeren ud så vi kender det fra MB./CPU.


martinbg
 
Elitebruger
Tilføjet:
03-08-2009 15:43:43
Svar/Indlæg:
2076/119
nu sprøg jeg sikkert dum, men hvad har det til fordel? for os med gamer stationær


Morpheus@HOOD
 
Elitebruger
Tilføjet:
03-08-2009 15:58:13
Svar/Indlæg:
637/63
# 4

Noget ala' det her:



http://www.hardwarezone.com/ar...

Det er noget der benyttes i notebooks i dag, MSI og ASUS har vist prøvet med noget engang, dog er der ikke kommet noget reelt ud af det.


Svaret blev redigeret 1 gang, sidst af Morpheus@HOOD d. 03-08-2009 15:59:31.


bornholm
 
Elitebruger
Tilføjet:
03-08-2009 17:04:44
Svar/Indlæg:
2958/84
Det er lidt synd at det ikke er mere udbredt, jeg tror det kunne blive lidt billigere at opgradere.

Svaret blev redigeret 1 gang, sidst af Emillos d. 03-08-2009 21:13:55.


cyph3r_smurf
 
Elitebruger
Tilføjet:
03-08-2009 17:18:18
Svar/Indlæg:
825/30
#4+6

Det udkom, men for at bibeholde garantien skulle kontet sendes ind for at opgradere + køling var et problem.

Det er et område der er tænkt meget over og nogle ting er afprøvet, men det er blevet dårligt modtaget.


Kasseren
 
Elitebruger
Tilføjet:
03-08-2009 19:18:41
Svar/Indlæg:
1814/48
@2 I en af de første præsentationer af Fusion ideen var AMD faktisk inde på noget i den stil. Nemlig at bundkortet skulle have flere sockets og at processorerne i disse sockets enten kunne være rene CPUer, GPUer eller en kombination tilpasset til et bestemt formål. Der skulle også laves en Fusion til computere under 10w og en anden med et forbrug på op til 100w.

Desværre er der sket en del siden, eksempelvis skulle der oprindeligt skabes to nye CPU arkitekturer, hvilket nu er erstattet af genbrug af Phenom kernen, så de oprindelige visioner er nok ikke så meget værd mere.


Mathis77
 
Elitebruger
Tilføjet:
03-08-2009 23:40:37
Svar/Indlæg:
6293/359
jeg senser at intel er bedre kørende med deres larrabee - at de stadig vil have en cpu på motherboardet og så et grafikkort som er som en stor samling "cpu'er"... ikke at fusionere de to ting til 1 ting.

fint nok til bærbar men ikke til tung grafik

#4 genial tanke - ku være fee - ligesom at opgradere ram til motherboardet 🙂

googlede lige bagefter mine udtalelser:
http://www.google.dk/search?so...

vurder selv 😉


Svaret blev redigeret 1 gang, sidst af Mathis77 d. 03-08-2009 23:44:00.


[G.N.U.]
 
Elitebruger
Tilføjet:
05-08-2009 04:29:50
Svar/Indlæg:
2175/21
tjae man kunne da også forestille sig at hvis man havde en cpu med indbygget gpu, så havde man også et ekstra gfx i gaming stationære, der så kunne vlre helt inaktivt, når der ikke var brug for effekten, men som derefter kørte en slags physX/crossfire mellem de 2 gfx kort når man startede et spil...det kunne da spare lidt strøm