Gå til innhold

Stadig nærmere dobbelkjerne


Anbefalte innlegg

Jeg kom på en ting til.. Kanskje snorreh vet svaret?

 

De nye dual core fra AMD skal så vidt jeg skjønner også ha Cool&Quiet. (AMD's svar på speedstep). Vil kjernene styres individuelt her? Hvis f.eks en kjerne jobber 50% av full hastighet og den andre 10% av full hastighet, så kan vel den første klokkes ned til 50-60% og den andre til minimum?

 

Siden dual core er begrenset av effekten til max 95W, så kan vel dette bety at hvis man kjører veldig krevende entrådet programvare så kan vel den ene kjernen underklokkes for å frigi effekt til den andre kjernen? Altså at den ene kjernen klokkes til minimum (f.eks 1GHz, 10W) mens den andre kjernen dermed får økt sin effektkvote til 85W og dermed klokkes opp for å ta unna det entrådete programmet?

 

Evt. vil dette fungere på Socket 939 eller er det umulig å ha to separate Vcc-spenninger i denne sokkelen?

 

Evt. vil dette kunne støttes med andre, nyere sokler, f.eks Socket 1207 eller en spesiell mobil-sokkel?

Lenke til kommentar
Videoannonse
Annonse
Ikke for å disse intel, men det var en ganske opsiktsvekkende plansje der:

Ja, den er hentet fra en tidligere Intel-presentasjon som blir diskutert her:

http://forum.hardware.no/index.php?showtop...0entry3291503

 

Jeg tipper at det første som vil skje er at programvarebransjen henger seg på multitråd i full fart og at det tar noen år før de oppdager at dette sporet ikke kan utnyttes mer. Da vil nok IA64 være eneste vei ut av ytelse-hullet. Men det er sikkert mange år til.

Tja, både Power og Alpha (inntil nylig iallefall) har bedre enkelttrådsytelse enn IA64. Og jeg ser egentlig ikke den store forskjellen i praksis på flerkjerne-teknologi og multitråds-teknologi. Husk nå på at det eneste spesielle med IA64 er at man vha. kompilatorer deler opp tråder som så løses i parallell. Hvis oppgavene allerede er delt opp i mange jevne tråder så faller egentlig hele poenget bort med prosessorer som bare klarer å kjøre enkelttråder svinraskt. Jeg velger å se positivt på dette, og er hellig overbevist om at flerprosessor er fremtiden uansett plattform og da tenker jeg ikke bare på CPU, men også GPU, APU, etc. Kanskje også alt integrert slik som f.eks. på IBMs "Cell" ?

 

Bare for å ha sagt det: Det blir neppe noe bedre for AMD sin del på lang sikt.

Hvorfor tror du det? AMD sin flerkjernestrategi virker rimelig bunnsolid såvidt jeg har skjønt, mens Intel satser på mer kostbare og mindre fleksible løsninger. "Tukwila" har jo også blitt skrapet nå, og desto mer man hører om "Yonah" desto mindre spennende ser den ut til å bli. Jeg holder en knapp på AMD "K10" og IBM "Cell" inntil videre.

Lenke til kommentar
Jeg kom på en ting til.. Kanskje snorreh vet svaret?

 

De nye dual core fra AMD skal så vidt jeg skjønner også ha Cool&Quiet. (AMD's svar på speedstep). Vil kjernene styres individuelt her? Hvis f.eks en kjerne jobber 50% av full hastighet og den andre 10% av full hastighet, så kan vel den første klokkes ned til 50-60% og den andre til minimum?

 

Siden dual core er begrenset av effekten til max 95W, så kan vel dette bety at hvis man kjører veldig krevende entrådet programvare så kan vel den ene kjernen underklokkes for å frigi effekt til den andre kjernen? Altså at den ene kjernen klokkes til minimum (f.eks 1GHz, 10W) mens den andre kjernen dermed får økt sin effektkvote til 85W og dermed klokkes opp for å ta unna det entrådete programmet?

Hvis man kjører et veldig krevende enkelttrådet program så vil den beste løsningen være å deaktivere den andre kjernen fullstendig. Akkurat en slik løsning har Intel valgt med "Yonah" som kommer i 2006. Såvidt jeg har forstått så vil begge kjernene klokkes dynamisk etter behov vha. SpeedStep (Intels svar på Cool'n'Quiet) og ved maks belastning så vil begge kjøre på full hastighet og maks strømforbruk (TDP) og ved lavere belastning så vil begge kjernene klokkes ned - helt til et nivå hvor den ene kjernen deaktiveres fullstendig ("halt"). Forhåpentligvis har AMD valgt en lignende løsning for sine dobbelkjerne-prosessorer, ellers vil det bli ganske vanskelig å få dem inn i bærbare med det aller første. Hovedfokuset hos prosessor-produsentene virker å være på design av mindre strømkrevende kjerner så jeg regner med at fremtidens dobbelkjerne-prosessorer faktisk kommer til å bruke mindre strøm enn dagens enkelkjerne-prosessorer uansett plattform.

 

Evt. vil dette fungere på Socket 939 eller er det umulig å ha to separate Vcc-spenninger i denne sokkelen?

 

Evt. vil dette kunne støttes med andre, nyere sokler, f.eks Socket 1207 eller en spesiell mobil-sokkel?

Vanskelig å si for sikkert, men jeg vil tro at det er mulig å styre dette direkte på prosessoren uten bytte av hovedkort/sokkel. Det er samkjøringen med operativsystemet som blir hovedutfordringen her i såfall, og såvidt jeg har skjønt så skal Windows "Longhorn" være spesialdesignet for flerkjernesystemer.

Endret av snorreh
Lenke til kommentar
Hvis oppgavene allerede er delt opp i mange jevne tråder så faller egentlig hele poenget bort med prosessorer som bare klarer å kjøre enkelttråder svinraskt.

Men man kommer ikke langt av sted med ørten kjerner hvis ikke programmet lar seg kjøre i paralell i det hele tatt. Det er jo en god del programvare der neste operasjon hele tiden er avhengig av det forrige svaret. Oppgaver som ikke kan deles opp parallellt. Hvis vi har valget mellom 1 kjerne som kjører all programvare sinnsvakt raskt og en multi-kjerne som kjører noe programvare sinnsvakt raskt og annen programvare tregt så tror jeg de fleste ville valgt den som kjører all programvare sinnsvakt raskt.

 

Siden x86 ser ut til å stange i mot en maksimal ytelse på ca 2-2,5 operasjoner per klokkesyklus og IA64 ser ut til å skalere fint forbi 4-5 operasjoner per klokkesyklus så må det på bety at IA64 har langt bedre entrådet ytelse enn x86.

 

Det er mulig det i fremtiden blir praktisk med opptil 4-8 kjerner som kjører parallellt for å utnytte paralelliserbar kode, men når denne paralelliseringen har blitt utnyttet på både x86 og IA64 så vil man ikke kunne få noe bedre ytelse med å parallellisere videre. Det eneste da er å øke ytelsen per tråd. Det er der IA64 ligger forran, både i dag og i fremtiden. Men som sagt: inntil ca 4-8 kjerner/CPU så vil x86 kunne være konkurransedyktig på grunn av flere kjerner per samme areal. Etter ca 4-8 kjerner vil det ikke kunne hentes ut mer parallelliserbar ytelse så da vil IA64 skyte forbi x86 i ytelse.

 

Bare for å ha sagt det: Det blir neppe noe bedre for AMD sin del på lang sikt.

Hvorfor tror du det?

På grunn av det jeg skriver over her. AMD kan nok plusse på fjere kjerner med god ytelseforbedring inntil ca 4-8 kjerner. Dette skjer nok i tiden frem mot 2010. Etter det har AMD brukt opp kruttet de har og kan ikke øke ytelse/tråd noe mer og heller ikke parallellisere programmene noe mer. IA64 vil nok på den tiden ha kommet til 5-10 operasjoner per klokkesyklus ca samme klokkefrekvens som AMD og kanskje være på dual eller quad core-stadiet. Dvs. at det er ennå mer ytelse å hente ut ved å paralellisere tråder opp til 4-8 slik AMD har gjort. AMD har ikke lisens til IA64 og vil dermed skyves stadig nedover i ytelse sammenlignet med Intel. Den eneste utveien for AMD er den VIA prøver nå: lav effekt, lav pris, lav ytelse.

 

Men nå er jo også markedet vanskelig å forutsi. Mulig vanlige folk gir seg katta i ytelse etter hvert (får endelig nok :p ) og kun ser på lav effekt, lav pris og bærbarhet.

Lenke til kommentar
Hvis oppgavene allerede er delt opp i mange jevne tråder så faller egentlig hele poenget bort med prosessorer som bare klarer å kjøre enkelttråder svinraskt.

Men man kommer ikke langt av sted med ørten kjerner hvis ikke programmet lar seg kjøre i paralell i det hele tatt. Det er jo en god del programvare der neste operasjon hele tiden er avhengig av det forrige svaret. Oppgaver som ikke kan deles opp parallellt. Hvis vi har valget mellom 1 kjerne som kjører all programvare sinnsvakt raskt og en multi-kjerne som kjører noe programvare sinnsvakt raskt og annen programvare tregt så tror jeg de fleste ville valgt den som kjører all programvare sinnsvakt raskt.

Stemmer det, men på oppgaver som ikke kan deles opp i parallell så er heller ikke IA64 noen løsning for den sliter faktisk med akkurat det samme problemet og er ingen mirakelkur hvis du innbillet deg det. Heldigvis kan de aller fleste problemer skaleres og løses i parallel, så jeg ser ikke dette som et stort problem. Matematikerne/numerikerne må jo ha noen utfordringer å jobbe med dem også ikke sant? ;)

 

Siden x86 ser ut til å stange i mot en maksimal ytelse på ca 2-2,5 operasjoner per klokkesyklus og IA64 ser ut til å skalere fint forbi 4-5 operasjoner per klokkesyklus så må det på bety at IA64 har langt bedre entrådet ytelse enn x86.

Ideelt sett ja, men i praksis er det faktisk ikke så stor forskjell. Tankegangen du skissererer her var nettopp den som Alpha EV8 skulle løse, som du kan lese mer om i denne 3-delte artikkelen hvis dette er noe som virkelig interesserer deg:

http://realworldtech.com/page.cfm?ArticleID=RWT121300000000

http://realworldtech.com/page.cfm?ArticleID=RWT122600000000

http://realworldtech.com/page.cfm?ArticleID=RWT011601000000

 

Spesielt siste del er meget bra - det finnes altså mange veier til Roma... :cool:

 

Det er mulig det i fremtiden blir praktisk med opptil 4-8 kjerner som kjører parallellt for å utnytte paralelliserbar kode, men når denne paralelliseringen har blitt utnyttet på både x86 og IA64 så vil man ikke kunne få noe bedre ytelse med å parallellisere videre. Det eneste da er å øke ytelsen per tråd. Det er der IA64 ligger forran, både i dag og i fremtiden. Men som sagt: inntil ca 4-8 kjerner/CPU så vil x86 kunne være konkurransedyktig på grunn av flere kjerner per samme areal. Etter ca 4-8 kjerner vil det ikke kunne hentes ut mer parallelliserbar ytelse så da vil IA64 skyte forbi x86 i ytelse.

Tja, jeg venter fortsatt på at IA64 skal yte bedre enn x86 på alle ting. Foreløpig utmerker den seg bare til enkelte nisjeproblemer og benchmarks. Det er en stor forskjell på teoretisk og praksis ytelse, og for å få IA64 til å yte bra så må du belage deg på mange lange og tunge dager med tweaking av koden din. Tid er også penger vet du...

 

Bare for å ha sagt det: Det blir neppe noe bedre for AMD sin del på lang sikt.
Hvorfor tror du det?

På grunn av det jeg skriver over her. AMD kan nok plusse på fjere kjerner med god ytelseforbedring inntil ca 4-8 kjerner. Dette skjer nok i tiden frem mot 2010. Etter det har AMD brukt opp kruttet de har og kan ikke øke ytelse/tråd noe mer og heller ikke parallellisere programmene noe mer. IA64 vil nok på den tiden ha kommet til 5-10 operasjoner per klokkesyklus ca samme klokkefrekvens som AMD og kanskje være på dual eller quad core-stadiet. Dvs. at det er ennå mer ytelse å hente ut ved å paralellisere tråder opp til 4-8 slik AMD har gjort.

Etterhvert som flerkjerne-prosessorer blir vanlig så vil de aller flere problemer også løses parallelt og da blir dagens enkelttrådstankegang rimelig utdatert tenker jeg. Jeg tror AMD gjør rett nok en gang med å lytte til hva markedet ønsker, og det er flerprosessor-løsninger til en rimelig kostnad. Noen inflasjon i antall kjerner tror jeg ikke du trenger å frykte fra AMD, men kanskje Intel (se vedlagt bilde) ?

 

AMD har ikke lisens til IA64 og vil dermed skyves stadig nedover i ytelse sammenlignet med Intel. Den eneste utveien for AMD er den VIA prøver nå: lav effekt, lav pris, lav ytelse.

 

Men nå er jo også markedet vanskelig å forutsi. Mulig vanlige folk gir seg katta i ytelse etter hvert (får endelig nok :p ) og kun ser på lav effekt, lav pris og bærbarhet.

Det er faktisk umulig for andre enn Intel å lisensere IA64, så det er ikke en reell problemstilling her. Hvis denne arkitekturen liksom skulle representere den eneste løsningen på alt fra global oppvarming til svigermor så har muligens de andre prosessorprodusentene et problem. Jeg tror nok du undervurderer AMD og overvurderer VIA ganske mye med den sammenligningen der og for ikke å snakke om at du glemmer IBM, Sun, FreeScale m.fl. fullstendig, så det er altfor tidlig å komme med dommedagsprofetier for det finnes faktisk flinke folk som ikke jobber hos Intel. Mens vi er inne på det så antar jeg at også denne artikkelen hos IBM vil være av interesse for deg:

 

The history of the micro from the vacuum tube to today's dual-core multithreaded madness

 

:thumbup:

post-107-1104290222_thumb.jpg

Endret av snorreh
Lenke til kommentar
SpeedStep (Intels svar på Cool'n'Quiet)

Hihihi.

Snorreh er kjent for å ha mange rare påstandar om Intel, men å påstå at dei er synske er vel litt drøyt?

SpeedStep var lansert ganske lenge før Cool'n'Quiet....

En liten avsporing av debatten kanskje? :hrm:

 

Jeg mente selvsagt PowerNow! ("Gemini") som ble introdusert med AMD Mobile K6-2+, mens SpeedStep ("Geyserville") som du refererer til faktisk var en vesentlig mindre avansert strømsparingsteknologi som først ble introdusert med Intel Mobile P3. PowerNow! brukes fortsatt i alle AMD sine mobile-prosessorer og 90nm Opteron blir de første tjener-prosessorene som får støtte for dette, mens Cool'n'Quiet egentlig bare er AMDs markedsføringsnavn for akkurat det samme når brukt i deres desktop-prosessorer.

Endret av snorreh
Lenke til kommentar

AMD har visst startet prøveproduksjon av dobbelkjerne Opteron allerede:

http://www.digitimes.com/bits_chips/a20041231A2003.html

Advanced Micro Devices (AMD), Intel’s rival, seems, however, to be still one-step ahead of chipmakers in the development of dual-core CPUs, with market reports saying that AMD has already sent samples of its dual-core Opteron chips to a number of select clients.
Lenke til kommentar

Flere interessante detaljer er kommet for en dag:

 

Taiwan server makers quick to test new dual-core Opteron samples

Advanced Micro Devices (AMD) has started sampling its dual-core Opteron to PC OEMs in Taiwan, according to sources at the makers. When contacted about the samples, several makers, including Tyan, stated they had received samples but refused to comment further.

 

Sources close to Tyan revealed that the motherboard and server maker had already tested the dual-core Opteron in combination with Nvidia’s Nforce4 professional chipset for workstations and servers, and it has passed all preliminary tests for a single-CPU configuration. However, they have yet to test the dual-core CPU in a multi-processing system, the sources said. The Opteron part that Tyan is currently testing is in the 940-pin configuration, said the sources, adding that Tyan will also receive a 939-pin version of the Athlon 64 platform for workstations and entry-level servers.

Et bilde sier mer enn tusen ord (se bare hva som står i boblen på plakaten):

http://mb.zol.com.cn/2004/1220/137640.shtml

lixLS3630na2.jpg

 

Flere bilder av disse nye hovedkortene fra Tyan her:

http://www.beareyes.com.cn/2/lib/200412/22/20041222236.htm

 

I tilfelle det skulle være noen tvil:

http://www.digitimes.com/Backgrounders/Features/sitenote.asp

3 Jan 2005: 

In a December 31 article, we incorrectly stated that AMD would release a 939-pin Opteron for workstations and entry-level servers. The part will be a 939-pin Athlon 64.

AMD’s latest addition to its Opteron family runs a little hotter than its predecessors, with its power consumption at around 95W, said the sources.

 

Tyan’s OEM customers are increasingly building solutions based around the Opteron processor from AMD, said the sources.

 

Sources at the makers believe that AMD plans to launch the dual-core Opteron sometime in the second quarter, and very likely before Computex.

 

Tyan is expected to announce an 8-way Opteron-based server at CeBIT or Computex in 2005, said the sources. This server board would likely be based on a chipset from ServerWorks, a Broadcom subsidiary, according to the sources.

8-veis Opteron-brikkesett fra ServerWorks har jeg stor tro på, det blir meget spennende å høre flere detaljer om dette :woot:

 

Sources at Asustek said the maker plans to launch a dual-Opteron server sometime in the first half of 2005 but could not give specifics on the release date. The sources explained that the company’s relationship with Intel was very good and it did not wish to jeopardize its position in any way. However, with more of its customers requesting AMD solutions, the maker decided to start developing motherboards and servers based on the Opteron and AMD64 parts.

Bra at verdens største hovedkort-produsent, ASUS, endelig har tatt til fornuften og satser på å lage tjener-hovedkort for Opteron de også. Konkurransefiendtlige tiltak fra Intel burde snart tilhøre fortiden, men det virker ikke slik skal vi tro dette :hrm:

Endret av snorreh
Lenke til kommentar

Jeg er glad vi har store konkurerende produsenter, ellers hadde vi ratt sittet med 1/10 del av ytelsen til 5 ganger prisen i dag. Men det er vel slik at alle ønsker å beskytte sitt domene, bare se på statsbygg.

Endret av Theo343
Lenke til kommentar

Jeg regner med at den følgende artikkelen vil være av stor interesse for dem som har fulgt denne tråden:

 

The Free Lunch Is Over: A Fundamental Turn Toward Concurrency in Software

The biggest sea change in software development since the OO revolution is knocking at the door, and its name is Concurrency.

 

Your free lunch will soon be over. What can you do about it? What are you doing about it?

 

The major processor manufacturers and architectures, from Intel and AMD to Sparc and PowerPC, have run out of room with most of their traditional approaches to boosting CPU performance. Instead of driving clock speeds and straight-line instruction throughput ever higher, they are instead turning en masse to hyperthreading and multicore architectures. Both of these features are already available on chips today; in particular, multicore is available on current PowerPC and Sparc IV processors, and is coming in 2005 from Intel and AMD. Indeed, the big theme of the 2004 In-Stat/MDR Fall Processor Forum was multicore devices, as many companies showed new or updated multicore processors. Looking back, it’s not much of a stretch to call 2004 the year of multicore.

 

And that puts us at a fundamental turning point in software development, at least for the next few years and for applications targeting general-purpose desktop computers and low-end servers (which happens to account for the vast bulk of the dollar value of software sold today). In this article, I’ll describe the changing face of hardware, why it suddenly does matter to software, and how specifically it matters to you and is going to change the way you will likely be writing software in the future.

 

Arguably, the free lunch has already been over for a year or two, only we’re just now noticing.

Anbefalt lesing! :thumbs:

Lenke til kommentar

Bare for å jevne ut ensidigheten :

 

Intel Smithfield captured in pictures

 

The machine was playing HD content with 10 per cent of CPU time and even was capable of HD encoding and playing the other HD file without interrupting the video. The dual core CPU looks like quite powerful stuff.

 

 

http://www.theinquirer.net/?article=20566

 

 

INTEL IS already showing up its dual core CPUs here at consumer electronic show. You can see this dual core CPU behind closed doors and actually touch it and feel it.

 

http://www.theinquirer.net/?article=20552

Endret av Snekker`n
Lenke til kommentar

Sudhian har også en interessant diskusjon om fremtiden i dette markedet her:

 

The Free Lunch is Over: Intel, AMD, and Apple in 2005

Even if the market aggressively rejects dual core Prescott for thermal or performance reasons, AMD still has a long-term problem on its hands.  Intel will inevitably find the right processor and technology combination to build an attractive platform even if the first one or two aren’t breakout successes.  AMD may have more freedom to increase clockspeed, but that’ll be of less and less help as clockspeed itself assumes a less-important position.

 

Without Intel’s marketing and manufacturing muscle, AMD is going to have to leverage its technology and design know-how into partnerships and joint operations.  Certainly the recent alliances with IBM and NVIDIA have worked well, but at the end of the day, IBM and NVIDIA aren’t concerned about AMD—they’re concerned about themselves.  Given Intel’s greater development muscle and the technological roll-outs already on the map for Windows Longhorn, AMD has a lot of work to do if they want to keep growing and expanding their role as an enabler of the modern IT industry.  AMD led the charge against Intel to de-emphasize clockspeed—will they be able to keep up with platform-centric development?  Will Intel be able to sell a platform compelling enough to drive dual core Prescott sales?  Will Microsoft ever release WindowsXP 64-bit?

Endret av snorreh
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...