Howard Skrevet 19. september 2007 Del Skrevet 19. september 2007 Intel snakker neste generasjon prosessorer på IDF, som blir største arkitekturendring på 10 år. Les mer Lenke til kommentar
stingfisher Skrevet 19. september 2007 Del Skrevet 19. september 2007 Intel snakker neste generasjon prosessorer på IDF, som blir største arkitekturendring på 10 år. Les mer 9527632[/snapback] Hva er det som er den store arkitekturendringen? Ser kun endringer av typen "mer lik AMD" Lenke til kommentar
Evil Eye Skrevet 19. september 2007 Del Skrevet 19. september 2007 (endret) Jeg synes den ser rotete ut jeg. kremt..... Ja ja, får håpe AMD klarer å holde følge. Må si jeg er bekymret for at Intel kan ovekjøre AMD hvis trenden fortsetter. Endret 19. september 2007 av Evil Eye Lenke til kommentar
endrebjo Skrevet 19. september 2007 Del Skrevet 19. september 2007 ...største arkitekturendring på 10 år... Vil det si en tilsvarende endring som fra i486 til P5? Eller fra P5 til P6? Lenke til kommentar
CAT-scan Skrevet 19. september 2007 Del Skrevet 19. september 2007 Når kommer det informasjon av den saftige sorten, egentlig? Lenke til kommentar
Simen1 Skrevet 19. september 2007 Del Skrevet 19. september 2007 (endret) Hvorfor ser bildet så rotete ut? Som om prosessoren er smurt utover? - Integrert grafikk ser ut til å bli siktet inn mot AMDs "fusion" (også integrert grafikk) - Quickpath ser ut som AMDs HTT, altså med 4 linjer akkurat som AMDs nåværende. - Hvordan vil den nye HyperThreading-implementasjonen virke? Med tanke på at pipelinen trolig vil bli betydelig kortere enn sist de brukte det (Netburst). - Lurer på hvordan varmeutviklingen vil bli med en dobling av kjernene, mer arbeid per kjerne (HT), mer avansert interconnect, integrert minnekontroller og hele 731 millioner transistorer, og alt dette uten å krympe fra de kommende 130W Yorkfield-prosessorene. Endret 19. september 2007 av Simen1 Lenke til kommentar
Gjest Slettet-QjT4b9 Skrevet 19. september 2007 Del Skrevet 19. september 2007 Hvorfor ser bildet så rotete ut? Som om prosessoren er smurt utover? - Integrert grafikk ser ut til å bli siktet inn mot AMDs "fusion" (også integrert grafikk) - Quickpath ser ut som AMDs HTT, altså med 4 linjer akkurat som AMDs nåværende. - Hvordan vil den nye HyperThreading-implementasjonen virke? Med tanke på at pipelinen trolig vil bli betydelig kortere enn sist de brukte det (Netburst). - Lurer på hvordan varmeutviklingen vil bli med en dobling av kjernene, mer arbeid per kjerne (HT), mer avansert interconnect, integrert minnekontroller og hele 731 millioner transistorer, og alt dette uten å krympe fra de kommende 130W Yorkfield-prosessorene. 9527948[/snapback] Simen se for deg det AMD snakket om: Omvendt HyperThreading, PC-en tror at det er en kjerne, om det er 8 3,0GHz kjerner, oooh, da snakker vi Lenke til kommentar
Betroz Skrevet 19. september 2007 Del Skrevet 19. september 2007 Nehalem krever vel også sokkel bytte tenker jeg. Så da er jo Penryn siste som bruker 775. Lenke til kommentar
Anders Jensen Skrevet 19. september 2007 Del Skrevet 19. september 2007 (endret) Omvendt HyperThreading er en myte. Det finnes ikke. Speculative threading er mulig (og finnes i bruk f.eks på Itanium), men neppe veldig energieffektivt med mindre en kompilerer spesifikt for det, og benyttes stort sett for å få flere overlappende load instruksjoner gående heller enn å regne i parallell. I tillegg er disse ekstra load instruksjonene bare til å varme opp cachen så vidt jeg vet. Kan få 10-20% ekstra ytelse på applikasjoner som egner seg til slikt. Negativ "gevinst" på resten. Simen1: vil tro kjernen ser så uklar ut fordi de har benyttet mye automatisk plassering av transistorer og ledere. Da får en ikke de rene overflatene som en får med manuell plassering, men de kan nok oppnå noe bedre ytelse, i allefall på sikt. Det går imidlertid først og fremst mye fortere å utvikle, noe som ikke er uvesentlig når en begynner å nærme seg en milliard transistorer. Liker forøvrig Nehalem designet rimelig godt. Så langt jeg kan se har den ingen ulemper i forhold til noen av dagens x86 design. Noe vi ikke kan si om Penryn med sitt avlegse minnehierarki og Barcelona med sin relativt skrøpelige integer ytelse, og begge mangler jo SMT som fortsatt er kjekt på en del database workloads. Sammenlignet med andre ikke-x86 design (Power 6, Niagara, Itanium) er det imidlertid mindre spektakulært. Nehalem vil vel gå inn i historien som en av de siste virkelig store fat-core design og bli husket som enormt inneffektiv i forhold til sine tynnere etterkommere, da gjerne med noe annet enn x86 ISA... se signatur osv. Endret 19. september 2007 av Anders Jensen Lenke til kommentar
Stigma Skrevet 19. september 2007 Del Skrevet 19. september 2007 (endret) reverse-hyperthreading høres veldig fint ut det, men det er ingenting som tyder på at slik teknologi eksisterer, eller i det hele tatt er mulig å skape, ihvertfall ikke i en form som vil kunne fungere universalt eller slik som folk tror når de diskuterer emnet. http://www.theinquirer.net/default.aspx?article=32885 http://arstechnica.com/news.ars/post/20060713-7263.html -Stigma Endret 19. september 2007 av Stigma Lenke til kommentar
Simen1 Skrevet 19. september 2007 Del Skrevet 19. september 2007 Simen se for deg det AMD snakket om: Omvendt HyperThreading, PC-en tror at det er en kjerne, om det er 8 3,0GHz kjerner, oooh, da snakker vi9528260[/snapback] Den idéen ble avslørt som bare oppspinn. Ikke fordi AMD tilfeldigvis ikke hadde valgt å lage noe sånt men fordi det ikke er forenelig med måten prosessorer fungerer på. Lenke til kommentar
Gjest Slettet-QjT4b9 Skrevet 19. september 2007 Del Skrevet 19. september 2007 Omvendt HyperThreading er en myte. Det finnes ikke. Speculative threading er mulig (og finnes i bruk f.eks på Itanium), men neppe veldig energieffektivt med mindre en kompilerer spesifikt for det, og benyttes stort sett for å få flere overlappende load instruksjoner gående heller enn å regne i parallell. I tillegg er disse ekstra load instruksjonene bare til å varme opp cachen så vidt jeg vet. Kan få 10-20% ekstra ytelse på applikasjoner som egner seg til slikt. Negativ "gevinst" på resten. Simen1: vil tro kjernen ser så uklar ut fordi de har benyttet mye automatisk plassering av transistorer og ledere. Da får en ikke de rene overflatene som en får med manuell plassering, men de kan nok oppnå noe bedre ytelse, i allefall på sikt. Det går imidlertid først og fremst mye fortere å utvikle, noe som ikke er uvesentlig når en begynner å nærme seg en milliard transistorer. Liker forøvrig Nehalem designet rimelig godt. Så langt jeg kan se har den ingen ulemper i forhold til noen av dagens x86 design. Noe vi ikke kan si om Penryn med sitt avlegse minnehierarki og Barcelona med sin relativt skrøpelige integer ytelse, og begge mangler jo SMT som fortsatt er kjekt på en del database workloads. Sammenlignet med andre ikke-x86 design (Power 6, Niagara, Itanium) er det imidlertid mindre spektakulært. Nehalem vil vel gå inn i historien som en av de siste virkelig store fat-core design og bli husket som enormt inneffektiv i forhold til sine tynnere etterkommere, da gjerne med noe annet enn x86 ISA... se signatur osv. 9528544[/snapback] reverse-hyperthreading høres veldig fint ut det, men det er ingenting som tyder på at slik teknologi eksisterer, eller i det hele tatt er mulig å skape, ihvertfall ikke i en form som vil kunne fungere universalt eller slik som folk tror når de diskuterer emnet. http://www.theinquirer.net/default.aspx?article=32885 http://arstechnica.com/news.ars/post/20060713-7263.html -Stigma 9528548[/snapback] 640k ougth to be enough for everybody. Ingenting er umulig. Vanlig HyperThreading fungerer jo slik folk tror, men det er spørs om det er verdt å bruke penger på det. Siden det er kommet opp til 4 kjerner, så vil vel heller spillprodusentene lage spille som utnyyer alle kjernene maksimalt Lenke til kommentar
ATWindsor Skrevet 19. september 2007 Del Skrevet 19. september 2007 Nehalem vil vel gå inn i historien som en av de siste virkelig store fat-core design og bli husket som enormt inneffektiv i forhold til sine tynnere etterkommere, da gjerne med noe annet enn x86 ISA... se signatur osv. 9528544[/snapback] Hehe, vi får se, det ingeniører synes er best er ikke alltid det markedet velger Og husker jeg ikke feil, så mente du vel at x86 burde vært ute av mid og high-end-servere innen disse tider for et par år siden også? (som sagt mulig jeg husker feil). Det blir interessant å se i alle tilfeller. AtW Lenke til kommentar
Prognatus Skrevet 19. september 2007 Del Skrevet 19. september 2007 Det skjer mye spennende med Intels design for tiden. Se bare på Montevina-plattformen, som skal etterfølge Santa Rosa i 1. kvartal neste år. Den vil bl.a. støtte Perryvile, som er en bærbar-prosessor. Og siden Montevina vil støtte opptil 1600 MHz FSB og 1600 MHz DDR3 er det ikke umulig at vi får se bærbare med de spesifikasjonene neste år! Det fortsetter trenden vi har sett en stund fra Intel nå - at prosessorer og brikkesett utvikles med tanke på å kunne brukes på alt fra bærbare til servere. Lenke til kommentar
Quintero Skrevet 19. september 2007 Del Skrevet 19. september 2007 (endret) @ Anders Jensen: Bra innlegg. Men jeg ser at det påpekes en mulig sammenheng mellom pipeline-dybde og gevinsten av HyperTreading. Var det ikke bare en myte at man trenger lang pipeline for å utnytte HT effektivt? Endret 19. september 2007 av Quintero Lenke til kommentar
Anders Jensen Skrevet 20. september 2007 Del Skrevet 20. september 2007 @ Anders Jensen: Bra innlegg. Men jeg ser at det påpekes en mulig sammenheng mellom pipeline-dybde og gevinsten av HyperTreading. Var det ikke bare en myte at man trenger lang pipeline for å utnytte HT effektivt? 9532233[/snapback] For å utnytte SMT effektivt trenger du: 1 Mange renaming registre for å holde et stort nok antall live verdier. 2 Stort instruksjons vindu for å ha nok instruksjoner fra alle trådene å plukke fra. 3 Godt med in-flight instruksjons kapasitet slik at du har noe regnekapasitet å ta av. Det vil si dybde ganger bredde. F.eks 14x4 for Core2 eller 12x3 for K8/K10. Dette er forøvrig akkurat det samme du behøver for å få høy singel tråds ytelse. SMT kan videre dra god nytte av litt direkte styring fra OS for bedre ressurs prioritering. Det tredje punktet er der de fleste entusiaster snubler. Og det er opphav til en drøss med myter, slik som at IPC reduseres proporsjonalt med pipeline lengde, og at SMT er best på dype pipelines, noe som isolert sett er litt riktig, men ikke veldig signifikant (kan si det er ett av 4 kriterier). Nå er det to ting som er viktig å vite om SMT: 1) Det utnytter og legger beslag på de samme ressursene som en trenger for å få høy singel tråd ytelse. Det er også de ressursene som skalerer med absolutt dårligst ytelse/watt i dagens design. 2) Den viktigste effekten er ikke, slik som mange entusiaster tror, å kunne regne i parallell, men å kunne gjøre flere loads i parallell. En kan få mer memory level parallelism (MLP). Som er noe av det viktigste per i dag for mange workloads og det er en trend vi vet med sikkerhet at vil bli mer viktig så lenge minne fortsetter å henge etter utviklingen av CPU. Når en virkelig forstår dette siste punktet så forstår en også hvorfor IBM, Intel og SUN alle har lagd flertrådings teknikker som ikke (eller nesten ikke i tilfelle IBM Power6) øker IPC, men heller satser alt på MLP. Tenker da spesielt på Montecito som har en MT teknikk som er 100% MLP fokusert, men også Niagara ligger veldig tett opp mot dette. Niagara kan redusere bobler på litt finere nivå enn Montecito, men kjører fortsatt bare en tråd per steg i CPU. Lenke til kommentar
Simen1 Skrevet 20. september 2007 Del Skrevet 20. september 2007 Interessant AJ Så det er bobler i minneaksessene og ikke pipelinene MT reduserer mest effektiv på dagens arkitekturer? Godt å få det litt på plass. Lenke til kommentar
Anders Jensen Skrevet 20. september 2007 Del Skrevet 20. september 2007 (endret) Nehalem vil vel gå inn i historien som en av de siste virkelig store fat-core design og bli husket som enormt inneffektiv i forhold til sine tynnere etterkommere, da gjerne med noe annet enn x86 ISA... se signatur osv. 9528544[/snapback] Hehe, vi får se, det ingeniører synes er best er ikke alltid det markedet velger Og husker jeg ikke feil, så mente du vel at x86 burde vært ute av mid og high-end-servere innen disse tider for et par år siden også? (som sagt mulig jeg husker feil). Det blir interessant å se i alle tilfeller. AtW 9529237[/snapback] Kan vel si at jeg var i overkant optimistisk, men det meste av problemene skyldes vel at Intel valgte å fokusere sin R&D kapasitet mot x86 for å kontre AMD K8 arkitekturen som sto i fare for å frarøve dem melkekua. Kan jo forstå den avgjørelsen, men ser jo også at grunnet suksessen til Core2 så har Itanium gjen fått godt med prosjekter (Tukwila, Poulson og Kitson er i allefall kjent). Elles så er vel økningen i Itanium salg rimelig stødige så jeg ser ikke bort fra at det fortsatt kan bli hoved produktet fra Intel til servere. En trend du også kan merke deg er at 4 til 16 sokkel maskiner har hatt flat eller negativ vekst mens 32++ sokkel maskiner gjøre det bra, mye grunnet virtualisering. Hvis en bedrift kjøper en 64 sokkel Itanium maskin og virtualiserer tilsvarende 100 til 200 to og fire sokkel maskiner inn i den, har Itanium gjort et godt innhogg i små og mellomstore x86 servere eller har den blitt presset opp i "kun de høyere segmentene" da?? Endret 20. september 2007 av Anders Jensen Lenke til kommentar
Quintero Skrevet 20. september 2007 Del Skrevet 20. september 2007 Takk for bra svar, AJ! Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå