AMD har Atom-konkurrent på vej

Litteratur d.  17. juni. 2008, skrevet af Emillos
Vist: 1192 gange.

Emillos
 
Overclocker
Tilføjet:
17-06-2008 22:30:08
Svar/Indlæg:
14079/622
Strømbesparende CPU i sigte

Læs hele nyheden her: http://www.hwt.dk/newsdetails....
CoffeeCan
 
Elitebruger
Tilføjet:
17-06-2008 22:36:55
Svar/Indlæg:
3394/170
Spændende! Lad denne udvikling blive ved og så gamer vi snart på vores mobiler i stedet for! 🙂


Stumpii
 
Elitebruger
Tilføjet:
17-06-2008 22:40:30
Svar/Indlæg:
1541/132
#1 Haha, så skal vi vist have en større skærm 😛


CrazyEyes^DK
 
Elitebruger
Tilføjet:
17-06-2008 22:41:34
Svar/Indlæg:
2388/52
#2
Nej da.. vi skal da bare have nogle specielle briller :P


Stumpii
 
Elitebruger
Tilføjet:
17-06-2008 22:42:24
Svar/Indlæg:
1541/132
#3 Ja okay 😀 Også en af de der fede mobil projektore når de kommer på markedet 😛


beatmore
 
Elitebruger
Tilføjet:
17-06-2008 22:49:50
Svar/Indlæg:
3943/44
Konkurrence har aldrig skadet min penge pung :D

Atom er ikke basseret på core som sådan, de har taget samme tilgang til tingene, og kikket i skufferne med gammelt udstyr, og så har de lavet en meget sjov blanding af nyt og gammelt.
Det er en in order processor, og det er ellers noget man gik fra efter pentium.
Men tom har skrev en lang artikel om den:
http://www.tomshardware.com/re...


matt??
 
Elitebruger
Tilføjet:
17-06-2008 22:53:26
Svar/Indlæg:
5600/32
#1, Nogle mobiler har da allerede nVidia grafikchips. 😛
Har min Motorola V3xx f.eks, men derfor er det stadig en skod mobil.. 🤣


jmose
 
Moderator
Tilføjet:
17-06-2008 22:57:31
Svar/Indlæg:
3863/538
Så bliver min linux kasse en ultra low watt 😛 🤡


E2X
 
Elitebruger
Tilføjet:
17-06-2008 23:12:04
Svar/Indlæg:
4018/217
Hvad ville der ske hvis Nvidia bare lavede deres cpu så den kunne køre windows og var lige glad med den licens?
Og hvad skal man gøre for at få sådan en licens eller hvem udgiver den?


MaddPirate88
 
Elitebruger
Tilføjet:
17-06-2008 23:14:16
Svar/Indlæg:
2576/125
#8 Meget simpelt, Intel ville få et los i skridtet, hvis Nvidia laver en god CPU. For så kæmper Intel på alle fronter imod total løsninger fra Nvidia og AMD. 🤣 Men det sker nok ikke.


blackdark114
 
Superbruger
Tilføjet:
18-06-2008 00:11:59
Svar/Indlæg:
212/3
#9
du glemmer lige at Intel også har deres egen grafik. det der er indbygget i deres chipsæt. d.v.s. at intel også har en "total løsning"


Kasseren
 
Elitebruger
Tilføjet:
18-06-2008 01:05:11
Svar/Indlæg:
1814/48
@8 Hvis nVidia vælger at lave en x86 version af deres APX 2500 vil det sandsynlige resultat, set ud fra den sidste tilfælde(jeg kender til) af en der lavede x86(Cyrix) uden licens, at de vil blive slæbt i retten for brud på Intels patent men at der vil blive fundet en løsning udenfor retsalen.

I Cyrix tilfælde var det at de kun måtte få produceret deres chips på fabrikker der allerede havde en x86 licens såsom Texas Instruments, STMicroelectronics eller IBM, at de lod Intel få lov at bruge deres patenter og betalte en pose penge.
Problemet for nVidia, hvis dette skulle være resultatet, er at både Texas Instruments og STMicroelectronics har chips der ligner APX 2500, i både arkitektur og ydelse, hvorfor at de nok ikke er indstillet på at hjælpe. Derudover kan man diskutere om nVidia har råd til at give Intel adgang til deres patenter, da Intel jo er gode til at lave chipsets og muligvis kunne slå nVidia ud af chipsetmarkedet hvis de kunne lave SLi versioner.


jbnhightower
 
Overclocker
Tilføjet:
18-06-2008 02:55:31
Svar/Indlæg:
19/2
Så vidt jeg er orienteret er VIA's nye chip navngivet Nano.

Fedt at der kommer konkurrence på dette marked. 🙂 🙂


#13
FnaX
 
Elitebruger
Tilføjet:
18-06-2008 03:02:31
Svar/Indlæg:
4156/111
#10

Intel har både lavet deres egne CPU'er, grafikkort, bundkort, chipsets, RAM og nogen få harddiske 🙂 (disse er dog ikke særlig gode hvis jeg husker rigtigt)

De mangler bare at lave rigtige PSU'er til stationære, så er den hjemme! 😀 De har lavet nogen strømforsyninger, men jeg mener ikke de var så optimale til PC'er? 😕


blackdark114
 
Superbruger
Tilføjet:
18-06-2008 08:57:21
Svar/Indlæg:
212/3
hehe det vidste jeg ikke, men nice nok :D


#15
E2X
 
Elitebruger
Tilføjet:
18-06-2008 11:43:12
Svar/Indlæg:
4018/217
#11 Tak for info 🙂
Det er lidt synd at Intel styre den licens så alle ikke kan være med.


NoNig
 
Elitebruger
Tilføjet:
19-06-2008 01:16:21
Svar/Indlæg:
23132/740
-> #15

De gør de som sådan heller ikke. Licensen byder dem blot, at udveksle patenter, resultater og teknologier med dem der også har licensen (AMD og IBM er to gode eksempler). Det er ikke et tilfælde, at AMD's processorer f.eks. har SSE2, 3, MMX osv.

Problemet med x86 licensen er, synes jeg, at den er ekstremt forældet. Den er fra før 486-dagene, hvilket selve arkitekturen også bærer præg af.

Det er bl.a. derfor det er ret interessant med en ny platform. Hvis nu nVidia kan levere en konkurrencedygtig CPU (hvilket det med RET stor sandsynlighed kan), så vil Intel have et alvorligt problem.

Lige siden begyndelsen, har nVidia fokuseret på, at lægge en stor del af beregningerne over på grafikchippen. Det var bl.a. en af de revolutionerende tiltag ved det oprindelige Geforce-grafikkort.

Man kan diskutere om det er smart eller ej (hvilket AMD, Intel, IBM og nVidia helt sikkert gør i denne tid). Jeg synes personligt det er smart. Men hvad er så hvad, til sidst?! Bliver CPU'en blot reduceret til et meget kraftigt chipsæt (jf. AMD's memorycontroller on-die, som Intel også snart "kopierer"), eller skal grafikchippen kun tage sig af grafik?

Nu hvor de fleste interfaces er så grafisk baserede (Eksempelvis Aero i Vista og Core i Mac OS X), så ville det klart være interessant med et grafikkort der intelligent kan skalere sin ydelse.

Det vil Intel ikke være så interesseret i. Og slet ikke, når nu grafikkortene også kan både encode og dekode video.

Det bedste eksempel på, at vi står ved en skillevej nu er, at Intel købte Havok, og nVidia købte Ageia.

Det næste skridt inden for gaming og grafik, bliver helt klart bedre fysik. AMD har pt. et samarbejde med Havok (som jo nu er et underselskab af Intel), og sætter endnu en gang nVidia i en akavet situation.

Det "tvinger" nVidia til at udvide sin platform, og vi mangler sådan set blot en CPU. De er allerhelvedes gode til at lave grafikkort og chipsæt og resten er jo blot software.

Hvis det lykkes dem, at få kørt udviklerne "udenom" x86 arkitekturen, så vil vi for alvor se en ny generation af computere.

Jeg skrev, for et stykke tid siden, at vi ser en sammensmeltning mellem konsoller og PC'ere - som vi kender dem. Og jo længere vi kommer frem i tiden, jo mere tror jeg på det er sandt. Folk er - som helhed - ikke særligt interesserede i hvad der sidder i kassen. Bare det funger. Om så det er en PS3, Mac eller PC. Tryk på 'tænd', og brug din computer. Præcis som med vores mobiltelefon.

Hvorfor er nVidia så i en "akavet" situation?

Jo.

Som tiden er gået, så er Intel og nVidia vokset fra hinanden. Hermed ment, at nVidia ofte har sagt til Intel; "Hey. Vi kan levere grafik, hvis I vil levere en platform". Det har Intel sagt nej til. De har jo allerede op til flere komplette platforme, og skal i øvrigt konkurrere med AMD (som jo både kan levere grafik, CPU og platform).

Om det er en dum beslutning eller ej, skal jeg ikke kunne sige. Jeg kan kun sige, at nVidia presser på, og det er blot et spørgsmål om tid, inden vi kommer til at se en markant ændring i den måde den moderne PC er struktureret på.

... hvem ved?!

Måske vi kommer til at se en nVidia-only platform omkring d. 21. december 2012? 😛


#17
E2X
 
Elitebruger
Tilføjet:
19-06-2008 02:05:32
Svar/Indlæg:
4018/217
#16

Hold dog op. Jeg må sige det er meget spændene læsning!
Håber da klart at vi kan få en cpu der har lige så mange kræfter som en gpu snart. Det ville klart være et vendepunkt for hele computer industrien og selvfølgelig alle os andre.

Hehe det er da bedre end at blive udslettet d. 21. december 2012 😛


saiot
 
Elitebruger
Tilføjet:
19-06-2008 02:16:44
Svar/Indlæg:
7111/480
den burger 8watt inclusivt chipset bruger atom ikke 2 watt med det helle ?


NoNig
 
Elitebruger
Tilføjet:
19-06-2008 02:18:22
Svar/Indlæg:
23132/740
-> #17

Det har vi, som sådan også. Der er rigtig meget regnekraft i en moderne CPU, Cell processor eller PowerPC. Problemet er blot, at grafik stadig er en del af det der "ukendte" land, hvor alting kan ske.

En CPU har det ret nemt, og får (for det meste af tiden) leveret en kontinuerlig strøm af ret forudsigelige data. Det er sværere for grafikkortet. Der er mange faktorer at tage højde for.

Hvis vi spiller et skydespil, så fortæller vi CPU'en - med musen - at nu drejer vi til højre. Den information sender CPU'en videre til grafikkortet, som;

- Placerer dig i 3D-space
- Tegner jord
- Tegner træer
- Tegner skyer
- Tegner partikler
- Tegner teksturer
- Beregner fysik?
- Osv. osv.

Der er rigtigt mange parametre at tage højde for. Derudover, så er det ret nemt at holde styr på koordinater i 3D-space. Men når samtidig samtlige triangler skal placeres, skydes på, sprænges i luften, hoppe, danse og jeg ved snart ikke hvad. Så er det, at opgaven bliver ret kompliceret.

Personligt, så havde jeg nok foretrukket, at div. spiludviklere (og programmører) ville øve sig lidt mere i effektiv programmering. Jeg tænker her især på ibrugtagning af flere kerner og en bedre fordeling af arbejdsbyrden (hvormed beregningskraft bliver brugt langt mere effektivt).

Det er jo lidt noget lort, at CPU'en i regelen blot bliver bedt om at "videresende" data til grafikkortet, som jo bare hoster af sted. Når nu vi (eller, nogle af os) har en firekernet processor, og en effektiv grafikchip (vi ser lige bort fra lyd hér), så ville det da være smart med:

CPU:
Core0 - Windows og baggrundsapplikationer
Core1 - Spil, interface, 3D-space
Core2 - Spil, AI/Kunstig intelligens
Core3 - Spil, fysik og 3D-space

Grafikkort:
Core 0-?! - Triangler

"Problemet" ligger lidt i, at de nuværende programmører sådan set kun er skolet til at kunne gøre brug af to-tre processorer på samme tid. Altså CPU, GPU og lydchip. Det er som sådan, den mest basale opsætning i en PC.

Ok. De kan nu gøre brug af lidt flere processorer, da Intel og AMD har været søde, at arbejde sammen med Microsoft, om at lægge dualcore understøttelse direkte ind i API'en.

Et godt eksempel er PS3'eren, der jo - som bekendt - gør brug af 7 kerner. Jeg kan let forestille mig, at de første tusinde programmører har kigget noget nervøst på opgaven.

Et spil som 'Crysis' gør faktisk fint brug af 4 kerner. Men pga. de programmører som har lavet "grundpillen" (jeg snakker ikke om grafikmotoren hér) i spillet, ikke kan lide flere kerner, så er det simpelthen pillet ud af spillet.

Hvis man eksempelvis sprænger en nuke. Er det så ikke lidt sært, at kun det træ man rammer direkte, vælter? Hva' med de omkrinstående træer? Biler, bygninger osv. springer også fint i luften, men hvad med træerne?

Det er blot et spørgsmål om at rette lidt i et par XML-filer, så vil man kunne eftervise det.

Min Q6600 afgik næsten ved døden, da jeg forsøgte at pille lidt ved det.

Vi må blot håbe, at folk (læs: udviklerne) tager sig ved nakken, og får indkørt en bedre kode, endsige en bedre platform. Så glæder jeg mig til at se real-time CGI 😎