Pysj Skrevet 5. august 2008 Del Skrevet 5. august 2008 AMDs arbeid med å forene CPU og GPU begynner å ta form. Les mer Lenke til kommentar
Flimzes Skrevet 5. august 2008 Del Skrevet 5. august 2008 Hva er så budsjett-maskin med en brikke som yter bedre enn hd4870? Lenke til kommentar
SVD Skrevet 5. august 2008 Del Skrevet 5. august 2008 Håper AMD blir mye bedre en Intel på denne fronten, syns de fortjener det. Lenke til kommentar
Joakimd Skrevet 5. august 2008 Del Skrevet 5. august 2008 Da gleder jeg meg til å spille crysis på very high med laptopen. Lenke til kommentar
aspic Skrevet 5. august 2008 Del Skrevet 5. august 2008 Men altså, først skal dei fusjonere GPU og CPU i eine og same brikka. For så å setje inn eit eksternt skjermkort? Blir det ikkje smør på flesk? Lenke til kommentar
JKJK Skrevet 5. august 2008 Del Skrevet 5. august 2008 Vil ikke slike chiper bli rimelig varme? Med tanke på at CPU og GPU er de brikkene som trenger mest kjøling i en pc i dag, må det da bli rimelig hett når man kombinerer dette? Lenke til kommentar
CAT-scan Skrevet 5. august 2008 Del Skrevet 5. august 2008 Hvordan kan en dedikert GPU (eller rettere sagt GPGPU) (Larrabee) konkurrere direkte med en fusjon av GPU og CPU? Tullball spør du meg. Intel har prosjekter lignende Fusion på gang, men det er ikke Larrabee. Lenke til kommentar
kilik Skrevet 5. august 2008 Del Skrevet 5. august 2008 Har mye mer tro på denne ja, spesielt hvis grafikkytelsen faktisk er bedre enn HD 4870 fra dag 1. Lenke til kommentar
Laffe Skrevet 5. august 2008 Del Skrevet 5. august 2008 Håper AMD klarer å gjenomføre dette her. They need this one ; ) Lenke til kommentar
Theo343 Skrevet 5. august 2008 Del Skrevet 5. august 2008 20% raskere enn RV770? Da snakker vi akseptabel "integrert" ytelse. Men dette må da bli en fryktelig varm CPU. Lenke til kommentar
VikinGz Skrevet 5. august 2008 Del Skrevet 5. august 2008 20% raskere enn RV770? Da snakker vi akseptabel "integrert" ytelse. Men dette må da bli en fryktelig varm CPU. jeg stusser på det der, den blir 20% bedre en dagens 4850/4870... og den er ment til budsjett maskiner... Da vet jeg så lenge budsjett vil knuse 4xxx serien om ikke så lenge så må det bli ekstrem ytelse i mellomklasse og high-end Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 5. august 2008 Del Skrevet 5. august 2008 20% raskere enn RV770? Da snakker vi akseptabel "integrert" ytelse. ... og dette sommeren 2009. Desktop GPU'ene bør helst ha økt kapasiteten med 20-40% innen da ellers blir plutselig laptop et reélt alternativ (ikke at det sånn sett er en dårlig ting). Men dette må da bli en fryktelig varm CPU. Jeg tenkte det samme. Noen må ha gjort noe meget lurt her ellers blir mye å svelge unna for kjølekapasiteten i en laptop. Lenke til kommentar
Carl Sagan Skrevet 5. august 2008 Del Skrevet 5. august 2008 Vis det blir kun en brikke og ikke to, dvs skjermkort+cpu og ekstra skjermkort, så kommer det ikke til å bli varmere enn standard cpu og skjermkort, vis man tenker at de utvikler samme mengde varme. Det vil nok bli lettere, ettersom man kun har et punkt å fjerne varmen fra og ikke to. Lenke til kommentar
CAT-scan Skrevet 5. august 2008 Del Skrevet 5. august 2008 Hvordan er det du kommer frem det? Vi snakker heftige mengder energi, og dette fra en stadig mindre overflate (dvs. flere W per cm2), altså mye vanskeligere å fjerne varme fort nok. Lenke til kommentar
Carl Sagan Skrevet 5. august 2008 Del Skrevet 5. august 2008 Hvordan er det du kommer frem det? Vi snakker heftige mengder energi, og dette fra en stadig mindre overflate (dvs. flere W per cm2), altså mye vanskeligere å fjerne varme fort nok. Sant nok, men regner vel med at overflaten på brikken blir større enn en vanlig CPU. Heatspreader hjelper og. Lenke til kommentar
el_salvad Skrevet 5. august 2008 Del Skrevet 5. august 2008 Hvordan kan en dedikert GPU (eller rettere sagt GPGPU) (Larrabee) konkurrere direkte med en fusjon av GPU og CPU? Tullball spør du meg. Intel har prosjekter lignende Fusion på gang, men det er ikke Larrabee. Samme tenkte jeg. Fusion vil ikke være konkurrenten til Larrabee, men derimot mot Havendale. Lenke til kommentar
CAT-scan Skrevet 5. august 2008 Del Skrevet 5. august 2008 Ja, jeg skulle gjerne sett en forklaring på hvordan HW mener Larrabee konkurrerer med Fusion. Sant nok, men regner vel med at overflaten på brikken blir større enn en vanlig CPU. Heatspreader hjelper og. Det er klart, men jeg ser fortsatt for meg mye varme på et lite område, mer enn i dag. Orker ikke å regne på det, gidder noen? Lenke til kommentar
Ebbe2 Skrevet 5. august 2008 Del Skrevet 5. august 2008 Merker en del skepsis blandt folk til både Larrabee og Swift, personlig tror jeg dette kommer til å slå veldig ann. Hovedgrunnen blir vel pris, billigere å kjøpe en "kombi-prosessor" enn CPU pluss ekstra skjermkort. Hva med varme, energiforbruk og størrelse? Størrelse: Dagens Phenom 4-kjerner (65 nm) vil være betydelig (nesten 40%) større enn en fremtidig Phenom 4-kjerner (40 nm). Med tanke på at Swift kommer kun med 2-kjerner halveres jo størrelsen ytterligere. Litt grov hoderegning sitter vi igjen med en CPU-del som tar ca. 30% av plassen til dagens Phenom 4-kjerner. Samtidig blir prosessen til GPU'n minsket fra 55 nm til 40 nm, en minskning på ca. 27-28%, så her ligger alle forhold til rette for at CPU'n ikke nødvendigvis blir så stor. (Kan vel kanskje regne litt mer på det, men orker ikke) Energiforbruk: * Overgang fra 65/55 nm til 40 nm. * Kun 2-kjerners Phenom Varme: Som todda7 -2rst1- nevnte burde det bli lettere å fjerne varme fra et punkt enn 2 punkter, noe som kan føre til kjøleløsninger som kun trenger å ta forhold til 1 varmepunkt. Større kjøleribbe med større vifte må vel være mer effektivt enn flere små kjøleribber og mindre vifter. 40 nm prosess gjør forsåvidt CPU'n mer energifattig som utvikler mindre varme. Ikke minst, skjermkortet forsvinner som fører til en litt lavere temperatur i kabinettet. Ytelsen som blir 20% bedre kan jo komme av at CPU og GPU blir smeltet sammen og jobber bedre sammen, samt nyere teknologi, tross alt et år til dette kommer. Jeg har trua Lenke til kommentar
kilik Skrevet 5. august 2008 Del Skrevet 5. august 2008 (endret) Regner med CPU- og GPU-delene deler på en god del transistorer, så det ikke tar i nærheten så mye plass/effekt som en separat CPU + separat GPU. Noe som er interessant er hvis de gjør det sånn at man kan utnytte både den interne og den eksterne grafikken sammen, á la Crossfire/SLI. Endret 5. august 2008 av kilik Lenke til kommentar
Simen1 Skrevet 5. august 2008 Del Skrevet 5. august 2008 Men altså, først skal dei fusjonere GPU og CPU i eine og same brikka. For så å setje inn eit eksternt skjermkort? Blir det ikkje smør på flesk? Det er ikke sånn det skal gjøres. Fusion er ment for bærbare PC-er. Det er meningen de skal ha én CPU/GPU-brikke. Den skal altså ikke komme i form av noe tilleggskort. Vil ikke slike chiper bli rimelig varme? Med tanke på at CPU og GPU er de brikkene som trenger mest kjøling i en pc i dag, må det da bli rimelig hett når man kombinerer dette? Vi har prosessorer som utvikler noen få watt i dag. Det samme gjelder grafikkbrikker. Hvor mye varme brikken vil produsere avhenger av spenninger og hastigheter. Siden den skal passe i bærbar-segmentet regner jeg med det kommer varianter med 25 og 35 watt (som er de to vanligste tallene for AMD-prosessorer for bærbare) 20% raskere enn RV770? Da snakker vi akseptabel "integrert" ytelse. Men dette må da bli en fryktelig varm CPU. Hardware skriver at 20% er et rykte og henviser til TG Daily og SweClockers. Sistnevnte henviser igjen til TG Daily. TG Daily skriver ikke noe om 20%. Ergo: 20% ser ut til å ha kommet ut av lufta. Jeg tror ikke jeg orker så mye salt så det ryktet tror jeg rett og slett ikke på. Jeg tror derimot at det kan stemme at den blir basert på RV800 og at antallet shadere og hastigheter vil tilpasses tilgjengelig minnebåndbredde. Siden det er snakk om 2009/2010 så tror jeg vi kan regne med to minnekanaler med DDR3-1333 SODIMM og dermed ~21 GB/s. Det tror jeg passer bra sammen med Phenom X2 på ~2,5 GHz og 64 shadere på ~600 MHz. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå