Agrophel Skrevet 5. desember 2009 Del Skrevet 5. desember 2009 Intel kills consumer Larrabee, focuses on future variants Not a shock, dev and HPC platform at first by Charlie Demerjian December 4, 2009 Intel logoINTEL HAS FINALLY done what we had all expected them to do, and pulled the plug on the consumer version of Larrabee. In a statement today, Intel said that the chip would be a development platform and an HPC part, but no retail version. This change of direction was pretty well assured because the first Larrabee chip was so late. If you are 1 year late in the GPU business, that is an unrecoverable deficit. While some may say that this is a failure, they probably don't understand the magnitude of the task that Intel undertook, it is not simply a GPU, it is the next generation of vector compute parts. Looking into the crystal ball, we see that Larrabee 1 and 2 were very similar, and Larrabee 3 was a very different part. Given that, we would expect Larrabee 2 to be dropped as well, and effort to focus on Larrabee 3 as a GPU. The more interesting thing is the release of an HPC SKU, so there will be Larrabee's available for that task. Given that it was always going to be a better HPC part than a GPU, this is a good step to get the parts out into the field. At SemiAccurate, we have been waiting to see Larrabee for a long time, the author was the first to break the code name more than three years ago, and the first to describe the architecture almost three years ago. It was a good idea then, and it is a good idea now. Given the likely downplaying of two generations of parts, I guess we will have to wait a while longer. The end result is still the right thing for Intel, and the future of computing, it will just take a bit longer to get there. http://www.semiaccurate.com/2009/12/04/int...uture-variants/ hehe venta på dette Lenke til kommentar
007CD Skrevet 5. desember 2009 Del Skrevet 5. desember 2009 Selvfølgelig! Intel kan jo ikke grafikk, de hadde kunnet noe om vi hadde vært i GeForce 2 alderen idag, men dessverre de dagene har reist for lenge siden og Intel står igjen på stasjonen. Det eneste som hjelper de er at de er billige å stappe inn i brikkesett og hadde de ikke vært integrert så hadde salget deres vært 0. Lenke til kommentar
HKS Skrevet 6. desember 2009 Del Skrevet 6. desember 2009 Aller først så kan jeg sette inn en link fra en litt mer stabil kilde. Charlie mer mest opptatt av å skryte av seg selv... AnandTect har en litt bedre analyse: http://www.anandtech.com/weblog/showpost.aspx?i=659 Selvfølgelig! Intel kan jo ikke grafikk, de hadde kunnet noe om vi hadde vært i GeForce 2 alderen idag, men dessverre de dagene har reist for lenge siden og Intel står igjen på stasjonen. Dette har ingenting med saken å gjøre. Grunnen til at Larrabee i allefall i denne formen blir kanselert er mye mer komplisert, og skyldes både hardware (48+ x86 kjerner med cache coherence er et mareritt) og software... Hvis Intel trenger grafikk-spesifikke tenkikker så har de full tilgang på alle AMD/ATI sine patenter. Lenke til kommentar
007CD Skrevet 6. desember 2009 Del Skrevet 6. desember 2009 Det har nok alt med saken å gjøre Raptor... Om du mangler erfaring så vil du slite med å hevde deg. Selvfølgelig er hardwaren ett av problempunktene som da igjen viser at Intel ikke kan grafikk, grei for tallknusing på GPU men ikke noe for konsument markedet. Her har vi blitt vist flere ganger at det å ha mye regnekraft skalerer ikke alltid til økt grafikkytelse. Lenke til kommentar
HKS Skrevet 6. desember 2009 Del Skrevet 6. desember 2009 Det har nok alt med saken å gjøre Raptor... Om du mangler erfaring så vil du slite med å hevde deg. Er faring har de, men de strategiske valgene som ble tatt var ikke bra nok. Mange x86 kjerner med coherent L2 cache byr på utfordringer. De strategiske valgene med å ha store deler av rendering pipeline i software skalerte heller ikke bra. Ut i fra hva vi har sett Intel har gjort med dette så skal vi ikke se bort i fra at Larrabee-arkitketuren kommer sterkt tilbake senere, men kanskje i en litt annen form. Her har vi blitt vist flere ganger at det å ha mye regnekraft skalerer ikke alltid til økt grafikkytelse. Det er faktisk sant. AMD sine prodkert er et perfekt eksempel på dette... Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå