int20h Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 Tre år etter oppkjøpet av ATI ser det ut som om mikroprosessor- og grafikkprosessoravdelingene til AMD slås sammen. Les mer Lenke til kommentar
Theo343 Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 (endret) Ingen informasjon eller siterte uttalelser om hvorfor og hva? Endret 7. mai 2009 av Theo343 Lenke til kommentar
Beef Supreme Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 Hva vil dette ha å si for noe som helst? Lenke til kommentar
Sajkow Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 Vel, det er da enkelt! For det! Er vel besparinger / deling av erfaring etc etc som får dem til å tenke godt gjennom noe slikt og faktsik bestemme seg for dette. Så, for det! Lenke til kommentar
Theo343 Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 Alle kan tenke seg til slikt, dermed lite interessant. Det er alltid interessant å høre hva de selv sier om saken. Lenke til kommentar
GullLars Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 (endret) Jeg har en mistanke om at CPU avdelingen ønsker å nyttegjøre seg av noe av teknologien til GPU avdelingen for å få til bedre parallellisering på nye multicores. Jeg kunne tenke meg å se usymetriske prosessorer der f.eks en kjerne er erstattet av et cluster med mindre parallelle floatingpoint kjerner (ala shadere). (edit) Eventuelt integrere GPU i CPU? Endret 7. mai 2009 av GullLars Lenke til kommentar
Anders Jensen Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 Det er jo naturlig at CPU og GPU teamene skal jobbe tettere sammen fremover. På lang sikt ender vi antagelig opp med at GPU blir splittet i spesial purpuse hardware til postprossesering av bildet og i arrays av general purpose throughput CPU kjerner. Mao. vi får to typer CPU kjerne i maskina som kan gjøre hva som helst og tilbake til veldig simple skjermkort. Lenke til kommentar
KKake Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 Vil skjermkortene hete AMD og ikke ATI da eller? At det blir AMD Radeon HD5870 f.eks? Klinger ikke like bra i ørene mine som ATI. Lenke til kommentar
xaco Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 Vil skjermkortene hete AMD og ikke ATI da eller? At det blir AMD Radeon HD5870 f.eks? Klinger ikke like bra i ørene mine som ATI. det vil jo ikke være smart av dem å gjøre det. ATI er jo et kjent merkenavn. Lenke til kommentar
Simen1 Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 (edit) Eventuelt integrere GPU i CPU? Det ligger i kortene og veikartet at dette kommer. Spørsmålet er bare hvordan og når. I første omgang blir det sikkert en relativt simpel sammenkobling av GPU og CPU på én brikke. GPU-delen blir sikkert på nivå med brikkesett med integrert grafikk. Dessuten jobbes det sikkert hardt på kompilatorsiden med å ta i bruk GPU-delen. Lenke til kommentar
GullLars Skrevet 7. mai 2009 Del Skrevet 7. mai 2009 Jeg tror ikke vi vil se GPU som dedikerte skjermkort dø ut det neste tiåret pga effektkravet til gamerutgavene, men det er mye mulig at low-end grafikk tilsvarende det vi finner integrert på hovedkort i dag blir flyttet til CPU. Dersom slike mindre GPUer blir integrert i CPU bruker unified shaders kan jo dette gjøre CPU mye mer potent i massivt parallelle operasjoner (konvertering, kryptering osv...). Men som sagt, high end GPU har såpass massiv regnekraft og effektforbruk at jeg tror disse vil overleve lenge mot konkurranse fra mer effektgjerrige integrerte løsninger. Gamere er ikke noe glade i kompromiss på grafikk Lenke til kommentar
Anders Jensen Skrevet 8. mai 2009 Del Skrevet 8. mai 2009 (endret) Jeg tror ikke vi vil se GPU som dedikerte skjermkort dø ut det neste tiåret pga effektkravet til gamerutgavene, men det er mye mulig at low-end grafikk tilsvarende det vi finner integrert på hovedkort i dag blir flyttet til CPU. Dersom slike mindre GPUer blir integrert i CPU bruker unified shaders kan jo dette gjøre CPU mye mer potent i massivt parallelle operasjoner (konvertering, kryptering osv...). Men som sagt, high end GPU har såpass massiv regnekraft og effektforbruk at jeg tror disse vil overleve lenge mot konkurranse fra mer effektgjerrige integrerte løsninger. Gamere er ikke noe glade i kompromiss på grafikk Hvis effektbehovet for god nok spill opplevelse er 1kW i dag (kun GPU) hva er den da om 10 år? Forutsatt at grafikkprosessering/watt (i GPU eller massivt parallell CPU) blir fordoblet hver 18. mnd. og effektiviteten på drivere og software forbedres med 10% med samme intervall. Svaret er 7,1 watt! 1000W/(2,1^(10/1,5)) Det er en myte at ingen datamaskin kan bli rask nok. Noen datamaskiner kan aldri bli for raske, men spillmaskiner havner ikke i den kategorien fordi de har så treg en motpart; mennesket. Endret 8. mai 2009 av Anders Jensen Lenke til kommentar
Theo343 Skrevet 8. mai 2009 Del Skrevet 8. mai 2009 Vel jeg gleder meg nå til dagen jeg slipper å vente på datamaskiner. Lenke til kommentar
Anders Jensen Skrevet 8. mai 2009 Del Skrevet 8. mai 2009 Vel jeg gleder meg nå til dagen jeg slipper å vente på datamaskiner. Hvor mye venter du på en datamaskin i et spill scenario? Dedikert GPU vil ikke gjøre HDD eller boot noe raskere... Lenke til kommentar
Simen1 Skrevet 8. mai 2009 Del Skrevet 8. mai 2009 Jeg tror ikke vi vil se GPU som dedikerte skjermkort dø ut det neste tiåret pga effektkravet til gamerutgavene, men det er mye mulig at low-end grafikk tilsvarende det vi finner integrert på hovedkort i dag blir flyttet til CPU. På hele 10 år? Det er ikke mer enn 4 år siden dobbeltkjernede prosessorer kom til desktop. Den gangen snakket mange om at 4-8 kjerner var ganske utenkelig siden hver kjerne var på 50-60 watt. I dag selges desktop-prosessorer med under 20 watt per kjerne, der hver kjerne yter langt bedre enn enkeltkjernene gjorde for 4 år siden. For CPU + GPU ser jeg for meg ulike kombinasjoner av antall x86-kjerner og antall shadere. Ingen slike løsninger vil erstatte en god (x86) spill-rig i år, men det er neppe så langt fram i tid som 10 år (eller 5 for den saks skyld) før vi har en brikke med under 100W TDP som gir bedre ytelse enn C7i 975 Extreme Edition + Radeon 4870 X2. Ser man 5 år tilbake i tid så kunne man få Athlon64 4000+ og geforce 6800 Ultra SLI med tilsammen ~350 W TDP for rundt 12 000 kr. I dag er det enkelt å overgå den ytelsen for under 2000 kr med usle 100W til rådighet. Lenke til kommentar
GullLars Skrevet 9. mai 2009 Del Skrevet 9. mai 2009 Vell, jeg skal ikke legge mye penger i et veddemål på 10 år, men 5 år burde i alle fall dedikerte GPUer for gaming overleve. Anders, med regningen din der forutsetter du at den totale regnekraften som trengs (GPU + CPU) forblir lik. Regnekraftkravet til max instillinger i de nyeste og mest grafisk intensive spillene vil nokk fortsette å øke en del etter hvert som GPU-produsentene gir spillutviklerne mer ytelse de kan leke seg med. Og det vil alltid finnes entusiaster som ønsker seg å kjøre alt på max i de nyeste spillene med 100+ FPS Jeg er ikke uenig i at en CPU/GPU integrert prosessor om 5 år vil kunne yte bedre enn 4870x2 eller 295 + i7 955 gjør i dag, men om trenden for regnekraft i dedikerte GPU-kort fortsetter som den har vært de siste 5 årene vil GPU fortsatt ha (grovt gjettet) 5-10x mer FLOPS, og høyere minnebåndbredde. Med de nivåene av regnekraft kan man kanskje begynne å snakke om realtime ray tracing i spill? Lenke til kommentar
Anders Jensen Skrevet 9. mai 2009 Del Skrevet 9. mai 2009 Spesial purpose regnekraft har aldri vært noen suksess over tid. Jeg ser absolutt ingen grunn til at GPU skulle være i noen særstilling her. Når det gjelder regnestykketmitt så er det kun ment å illustrere typisk 10års forbedring. Hva du kan gjøre med 1kW i dag kan du gjøre med ca 10W om 10 år. Videre har integrering store fordeler for samspillet i en maskin. med den regnekraften vi har om 10 år i en PC så vil det være katastrofalt for ytelsen å måtte sende data 10cm off-chip for videre prosessering. Det ville vært som om vi sendte data til en GPU farm i Australia i dag for rendering i et spill... Lenke til kommentar
Theo343 Skrevet 9. mai 2009 Del Skrevet 9. mai 2009 Jeg tror nok også mer skjer på 3 år enn man forventer i dag. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå