Howard Skrevet 4. august 2008 Del Skrevet 4. august 2008 Om et drøyt år kommer Intels hybridprosessor – Larrabee. Les mer Lenke til kommentar
C₈H₁₀N₄O₂ Skrevet 4. august 2008 Del Skrevet 4. august 2008 Dette blir interessant. Er det meningen at deu skal få 48 kjerner, som i en 48-kjerners CPU, eller skal en del av disse brukes til grafikk? Lenke til kommentar
HKS Skrevet 4. august 2008 Del Skrevet 4. august 2008 Sukk... Hvorfor må de dra x86 til GPU-verden... Lenke til kommentar
Malvado Skrevet 4. august 2008 Del Skrevet 4. august 2008 Altså et oppgulp av en nyere kjerne som samarbeider med et langt større antall med pentium kjerner dedikert til gpu aktivitet? Lurer på om intel har tatt fram shotgun og sikter på sine egne føtter jeg... Lenke til kommentar
O.J Skrevet 4. august 2008 Del Skrevet 4. august 2008 Den skal vise til god ytelse før jeg vurderer en sånn i en laptop eller stasjonær. Foretrekker CPU og GPU hver for seg. Lenke til kommentar
kilik Skrevet 4. august 2008 Del Skrevet 4. august 2008 (endret) Spennende saker. Spesielt med tanke på bærbare. Men forutsetter at ytelsen blir minst like bra som det beste nVidia/ATI leverer i dag. Må da være en enorm fordel rent kommunikasjonsmessig at CPU/GPU er kombinert i én brikke? Endret 4. august 2008 av kilik Lenke til kommentar
Kynxx Skrevet 4. august 2008 Del Skrevet 4. august 2008 Meget interessant! Ser for meg at datamaskiner blir enda mer strømsparende da en får all herligheten i en og samme brikke som til sammen bruker mye mindre energi enn en dedikert cpu og en dedikert gpu til sammen. Bare en ikke ender opp med en cpu sak på størrelsen med et tefat da.. Lenke til kommentar
minimum payne Skrevet 4. august 2008 Del Skrevet 4. august 2008 man kan jo spørre seg om hvorfor de to er separate i det hele tatt? Lenke til kommentar
HKS Skrevet 4. august 2008 Del Skrevet 4. august 2008 man kan jo spørre seg om hvorfor de to er separate i det hele tatt? Fordi det er to ganske forskjellige problemer de skal løse. En CPU er mye mer generell enn en GPU. Skal man integrere en high-end CPU og GPU på samme enhet så blir det en alt for komplisert brikke, og det er ikke økonomisk. Det er snart økonomisk å gjøre dette med low-end produkter, noe AMD Fusion er et eksempel på. Lenke til kommentar
Frijazz Skrevet 4. august 2008 Del Skrevet 4. august 2008 AnandTech har en god artikkel om Larrabee. Larrabee har en del interessante egenskaper, blant annet mulighet for direkte programering av Larrabee ved bruk av standard C. Lenke til kommentar
Kirchhoff Skrevet 4. august 2008 Del Skrevet 4. august 2008 Den skal vise til god ytelse før jeg vurderer en sånn i en laptop eller stasjonær. Foretrekker CPU og GPU hver for seg. Larrabee kommer ikke til å gjøre cpu'en overflødig (enda). Etter det jeg har forstått av anandtechs artikkel er det kun snakk om å bruke en krympet utgave av pentiumkjernen med enkelte forbedringer sammen i ett nettverk med veldig høy båndbredde. Hver kjerne får 4 tråder og intel kan plasere 10 krympede pentium kjerner på samme areal som en core 2 duo (65 nm) cpu. Dvs 40 tråder på samme areal som core 2 duo sine 2. Men selvsagt hver pentium kjerne yter ikke godt nok til at man med dagens programvare ville hatt noe glede av å forkaste cpu til fordel for noen titals pentium kjerner. Er nok snakk om at Intel prøver å lage Gpu med sin utprøvde teknologi. Lenke til kommentar
Irminsûl Skrevet 4. august 2008 Del Skrevet 4. august 2008 Hvorfor bruke bukse og genser når man kan gå rundt med snekkerbukse? Lenke til kommentar
Ethernet Skrevet 4. august 2008 Del Skrevet 4. august 2008 For det ser helt dustete ut med bare en snekkerbukse? Lenke til kommentar
Coffie=JavaCode Skrevet 4. august 2008 Del Skrevet 4. august 2008 Sukk... Hvorfor må de dra x86 til GPU-verden... som tideligere nevnt så er det nok programering som er grunnen. Hva er poenget med mye kraft hvis du ikke får brukt den på en god måte. Spess med multithreading programering som er bad ass vanskelig så hjelper det å bare ha en arkitektur til å forholde seg til. Programering har stagnert i forhold til datakraft. De som vil bruke oppdaterings argumentet så er det svært skjelden at folk oppdaterer bare en komponent av gangen, og at bærbare ikke har noen oppdaterings mulighet som er relavant. Lenke til kommentar
CAT-scan Skrevet 4. august 2008 Del Skrevet 4. august 2008 Jeg er litt overrasket over hvor fort dette kom. Det er jo ikke så lenge siden det ble presisert at dette kun var noe morsomme eksperimenter Intel drev på med (ryktene om en haug gamle kjerner). Jeg vet ikke helt om jeg har noen tro på at Larrabee kommer til å utfordre i high-end ved launch, men den er veldig spennende. At den er fullstendig programmerbar (OpenGL/DX via wrapper) og tar i bruk tile-basert rasterization er morsomt. Likevel tror jeg det blir enda morsommere da Intel skal smelte sammen større kjerner og mindre kjerner, slik at man i bunn og grunn får alt på én die. Er det nok til high-end? Kanskje ikke, men å ha alt på samme sted vil vel åpne opp morsomme muligheter for kombiløsninger, med deler av grafikk-komputasjonen på CPU med en ekstern GPU som gjør resten av arbeidet. Lenke til kommentar
_neuron_ Skrevet 4. august 2008 Del Skrevet 4. august 2008 hmpf, det er rimelig uinteresangt med 48 cores hvis de ikke kommer med noen gode parallelizing løsninger rimelig fort men. F.eks, sun's arbeid med HyTM ser veldig interesangt ut (les f.eks http://www.theregister.co.uk/2008/07/28/sun_dziuba_tm/ ). Lenke til kommentar
kilik Skrevet 4. august 2008 Del Skrevet 4. august 2008 Jeg tror Sony/IBM er inne på noe med sitt desgin av cell-prosessoren. Én kraftig general-purpose core og mange spesialkjerner beregnet for grafikk/rendring. Problemet er bare at den overlater vel mye til programmereren. Lenke til kommentar
CAT-scan Skrevet 4. august 2008 Del Skrevet 4. august 2008 Problemet med Cell er bare at den generelle CPU-delen er for veik og ALU-ene er vriene å utnytte. De var uansett veldig i front, siden CPU-er helt sikkert kommer til å se slik ut om ikke så veldig lenge. Lenke til kommentar
Theo343 Skrevet 4. august 2008 Del Skrevet 4. august 2008 (endret) Jeg ble sittende som et spørsmålstegn når jeg leste denne artikkelen og Intels uttalelser. Selskapet har hittil hatt suksess med sine integrerte grafikkløsninger i bærbare maskiner og rimelige desktop-systemer Hva i huleste? Jeg har aldri noensinne(rundt 15 år) kjøpt et system frivillig med integrert Intel grafikk og de gangene jeg har blitt påtvunget det har det vært på kontorpc el. Verre integrert grafikk skal du lete lenge etter. Så det er et pent ordspill å kalle påtvungen OEM i store kvanta for suksess. Men joda billig, i alle tolkninger som kan pålegges. Endret 4. august 2008 av Theo343 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå