Gå til innhold

Demonstrerte 80-kjerne-CPU


Anbefalte innlegg

Det var neppe hensiktsmessig å implementere en fullverdig IA64 kjerne i et forskningsprosjekt. Det hadde nok tatt for lang tid og de ville antagelig ikke fått plass til like mange kjerner. Siden hensikten var testing av interconnect internt på brikken så var det vel heller ikke verdt bryet å bruke ekstra designtid på å implementere noe så komplekst som IA64. En helt enkel VLIW kjerne er vel noe av det enkleste en kan lage i så måte om en ikke vil slå seg til ro med 1-way issue.

 

Ellers kan jeg avkrefte påstandene om at IA64 blir marginalisert. (En oppvakt leser bør kanskje se ann historien til han som fremsetter dem også.) IA64 vokser langt raskere enn noe annet sammenlignbart segment og begynner å få et omfattende "økosystem" av verktøy, programmer og OS. Mye dårlig kode er blitt ryddet ut også og vi ser jo at Itanium 9000 serien setter ytelses rekorder nesten ukentlig nå.

 

IA64 er imidlertid ikke helt i blinken for denne typen brikker med så små og enkle kjerner, derfor er det overraskende at de valgte en VLIW løsning so jo er nokså lik EPIC i steden for SIMD som er nærmest de facto standard på denne typen implementasjoner. SIMD er også bedre egnet til tallknusing enn EPIC for veldig små kjerner. Det er imidlertid mulig å kombinere EPIC og SIMD og det er kanskje hva de ser for seg på sikt når de får plass til litt større kjerner på 32nm osv. Uansett er IA64 en versjon av EPIC som ikke egner seg veldig godt til dette så lenge kjernene skal være minst mulig for å optimalisere throughput/watt. Siden disse antagelig vil bli brukt i kombinasjon med fetere kjerner når systemene skal implementeres for sluttbruker er det heller ikke nødvendig med en fullverdig IA64 implementasjon.

 

Når det er sagt så kan ikke slike tynne kjerner som vi ser her overta prosesseringen for alle typer oppgaver. De har elendig ytelse per tråd og vil alltid ha det i forhold til fetere kjerner.

Endret av Anders Jensen
Lenke til kommentar
Videoannonse
Annonse
Ellers kan jeg avkrefte påstandene om at IA64 blir marginalisert. (En oppvakt leser bør kanskje se ann historien til han som fremsetter dem også.) IA64 vokser langt raskere enn noe annet sammenlignbart segment og begynner å få et omfattende "økosystem" av verktøy, programmer og OS. Mye dårlig kode er blitt ryddet ut også og vi ser jo at Itanium 9000 serien setter ytelses rekorder nesten ukentlig nå.

7955545[/snapback]

Jeg vet ikke hvilke tall du henviser til, men hvis man bruker Topp500-lista som en benchmark så er tallenes tale ganske klare mhp. antallet Itanium-systemer (Intel IA-64) jf. Opteron- (AMD x86_64), Power- (Power) samt Xeon-systemer (Intel EM64T):

http://top500.org/lists/2006/11/overtime/Processor_Family

 

Processor_Family.png

Processor_Family.png

 

Når det er sagt så kan ikke slike tynne kjerner som vi ser her overta prosesseringen for alle typer oppgaver. De har elendig ytelse per tråd og vil alltid ha det i forhold til fetere kjerner.

7955545[/snapback]

Forsåvidt helt enig i det. Dette designet kan sånn sett tolkes som Intels svar på IBMs "Cell" og SUNs "Niagara". Selv har jeg mer tro på hybrid-design, med basis i minst én kraftigere "general-purpose" kjerne som blir støttet av flere spesialiserte kjerner/koprosessorer. Med stadig bedre produksjonsprosess så vil det bli mulig å integrere mer og mer på "prosessoren" så jeg regner vi vil se slike design om ikke altfor lenge. Sånn sett synes jeg at spesielt AMDs "Torrenza"- og "Fusion"-prosjekter virker spesielt spennende.

Endret av snorreh
Lenke til kommentar

Utfra grafene ser IA64 ut til å ha en relativt stabil andel, hvilket jeg synes er ganske imponerende i disse x86-klynge tider, så vi må nok vente litt til før vi skriver Itanium ut av historien.

 

Ellers fikk jeg tips av Simen om en artikkel som dekker det mer generelle temaet om mange små kjerner og homogent vs. heterogent. Dere finner den her.

Har koset meg med den store deler av dagen, takk skal du ha Simen!

Endret av Del
Lenke til kommentar

Top500 lista er nok ikke noen god målestokk på hvordan Itanium veksten er. Se heller på de faktiske markedsandelene de blir rapportert hvert kvartal i pressen og ligger vel rundt 40% økning i året for Itanium, noe som er mye mer enn servermarkedet sett under ett. Med nye low-end servere fra HP kan en nok forvente at salget øker på enda mer fremover, og det høye fokuset på sikkerhet taler også i favør Itanium, som har overlegen innebygd sikkerhet i forhold til x86.

 

Ellers tror jeg det er generell konsensus i industrien om at en må blande tynne å fete kjerner for å få et godt system i fremtiden, men det vil selvfølgelig variere en god del hvordan en implementerer disse. F.eks er Cell SPE og Niagara kjernene begge tynne, men likevel veldig forskjellinge og rettet mot to vidt forskjellige segmenter. Denne 80 kjernes saken til Intel ser ut til å være rettet mot tallknusing og dermed mot Cell SPE og GPU. De har også planer om å legge DRAM rett oppå brikken, noe som gir høy båndbredde og lav kapasitet. Det stemmer også godt overens med en del tallknusingsoppgaver hvor en kan dele opp jobbene i flernivå minne mye enklere enn hva en kan med database og webserver oppgaver som Niagara er rettet mot.

Lenke til kommentar
Utfra grafene ser IA64 ut til å ha en relativt stabil andel, hvilket jeg synes er ganske imponerende i disse x86-klynge tider, så vi må nok vente litt til før vi skriver Itanium ut av historien.

7973789[/snapback]

Vel, jeg er ikke enig med deg her :) Hvis man ser på hvor mye penger Intel/HP har brukt på Itanium-plattformen de siste årene så er dette resultatet mildt sagt ELENDIG, for vi snakker faktisk om milliard-beløp (!) i året som direkte innsprøytning bare for å holde denne plattformen i live. Hvor tror du disse pengene kommer fra (du tror vel ikke at de tjener penger på Itanium-salg) ? Jo, først og fremst fra salg av x86-produkter. Altså så bruker Intel/HP x86-plattformen på å subsidiere en konkurrerende plattform. En slik strategi vil ikke være bærekraftig i lengden, så derfor har jeg forlengst avskrevet Itanium - den er en gedigen flopp uansett hva man måte mene.

 

Ellers fikk jeg tips av Simen om en artikkel som dekker det mer generelle temaet om mange små kjerner og homogent vs. heterogent. Dere finner den her.

Har koset meg med den store deler av dagen, takk skal du ha Simen!

7973789[/snapback]

Takk for den! :thumbup:

Endret av snorreh
Lenke til kommentar
Top500 lista er nok ikke noen god målestokk på hvordan Itanium veksten er. Se heller på de faktiske markedsandelene  de blir rapportert hvert kvartal i pressen og ligger vel rundt 40% økning i året for Itanium, noe som er mye mer enn servermarkedet sett under ett. Med nye low-end servere fra HP kan en nok forvente at salget øker på enda mer fremover, og det høye fokuset på sikkerhet taler også i favør Itanium, som har overlegen innebygd sikkerhet i forhold til x86.

7973800[/snapback]

Disse tallene er høyst kontroversielle, spesielt så lenge man ikke vet om disse systemene faktisk blir solgt fremfor "gitt bort". Det er jammen ikke greit å vite, men jeg har iallefall ikke merket noe økt etterspørsel etter Itanium-systemer innen HPC-segmentet iallefall - og jeg har god kontakt med det som rører seg der. Fokuset på sikkerhet er jo akkurat det jeg mener med en stadig mer marginalisert plattform; først skulle Itanium erstatte x86, så skulle den bli best innen high-end (HPC) og nå er den altså skjøvet ned i sikkerhets-nisjen. Når det er sagt så tror jeg Itanium-plattformen vil komme til å slite med å være konkurransedyktig i dette marginale markedet jf. IBMs Power-plattform som leder ganske bra også her som følge av vesentlig bedre RAS-funksjonaltet bl.a.

 

Ellers tror jeg det er generell konsensus i industrien om at en må blande tynne å fete kjerner for å få et godt system i fremtiden, men det vil selvfølgelig variere en god del hvordan en implementerer disse. F.eks er Cell SPE og Niagara kjernene begge tynne, men likevel veldig forskjellinge og rettet mot to vidt forskjellige segmenter. Denne 80 kjernes saken til Intel ser ut til å være rettet mot tallknusing og dermed mot Cell SPE og GPU. De har også planer om å legge DRAM rett oppå brikken, noe som gir høy båndbredde og lav kapasitet. Det stemmer også godt overens med en del tallknusingsoppgaver hvor en kan dele opp jobbene i flernivå minne mye enklere enn hva en kan med database og webserver oppgaver som Niagara er rettet mot.

7973800[/snapback]

Ja, det vil bli spennende å se hva dette designet fra Intel gjør ut av seg etterhvert.

Endret av snorreh
Lenke til kommentar

Med det marginale sikkerhetssegmentet mener du da web-edge? Ikke veldig marginalt kanskje? Tror nok IPF kommer for fullt tilbake i HPC segmentet med Tukwila. Minnehierarkiet er for dårlig til HPC slik det er i dag, men med Tukwila blir det på høyde med IBM Power serien og mye bedre enn hva Opteron har i dag og til en langt lavere produksjonskostnad enn IBM Power. Ellers er database og java/.net et veldig sterkt område for IPF. I det heletatt genialt for web-edge om du i tillegg får maskina immun mot root-kits og code injection.

Endret av Anders Jensen
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...