int20h Skrevet 27. september 2006 Del Skrevet 27. september 2006 AMD mener trenden går mot at den tradisjonelle prosessorenheten utstyres med grafikkfunksjonalitet. Les mer Lenke til kommentar
Malvado Skrevet 27. september 2006 Del Skrevet 27. september 2006 Tja, burde ikke helt se ibort fra at framtiden blir slik, men som sagt det viktigste er jo egentlig ytelsen man sitter igjen med til syvende og sist. Lenke til kommentar
Polarbastard Skrevet 27. september 2006 Del Skrevet 27. september 2006 Når jeg leser dette er det en ting som spøker i underbevisstheten... vaaarmt! Selvfølgelig er det sikkert mulig å fikse dette med mindre effektkrevende prosessorer, men sett i forhold på hvor mange watt dagens prosessorer forbruker (AM2: 125W ??) + dagens GPU´er, så ser jeg for meg en riktig smeltedigel... Lenke til kommentar
ze5400 Skrevet 27. september 2006 Del Skrevet 27. september 2006 Ser ikke helt bort ifra at intel ikke kommer til å ligge på latisden de heller (Selv om de kansje ikke roper så høyt som AMD) Lenke til kommentar
Ar`Kritz Skrevet 27. september 2006 Del Skrevet 27. september 2006 Det blir jo greit: om 5-10 år ser vi kanskje en Cell-lignende sak med egne kjerner for CPU, grafikk, fysikk og kanskje lyd. Lenke til kommentar
Simen1 Skrevet 27. september 2006 Del Skrevet 27. september 2006 Foreløpig er det ingen prosessorer på de offisielle veikartene til AMD eller Intel som bekrefter CPU-er med GPU-kjerne®, men mer om dette kommer kanskje på IDF eller senere. Det finnes allerede veikart som kan tolkes i retning av integrerte GPUer: AMD Talk Modular. Hvis man ser på presantasjonen og der det grå feltet med "other" så kan det f.eks være GPU-funksjonalitet. Her er et intervju med visepresident og teknologisjef Phil Hester i AMD som også nevner noe om modulær design. Personlig har jeg tro på at det kan være snakk om å lage en hetrogen prosessor med ulike typer kjerner. Sansynligvis 2-4 tradisjonelle kjerner og en drøss massivt parallelle småkjerner som kan kjøre f.eks grafikk, fysikk og andre massivt parallelle oppgaver. Lenke til kommentar
Simen1 Skrevet 27. september 2006 Del Skrevet 27. september 2006 (endret) Når jeg leser dette er det en ting som spøker i underbevisstheten... vaaarmt! Selvfølgelig er det sikkert mulig å fikse dette med mindre effektkrevende prosessorer, men sett i forhold på hvor mange watt dagens prosessorer forbruker (AM2: 125W ??) + dagens GPU´er, så ser jeg for meg en riktig smeltedigel... 6950187[/snapback] Overgangen fra 1 til 2 kjerner gikk da fint uten at vi fikk glovarme prosessorer. Det var jo folk som spådde at 1+1=2 når det kom til effekt men det stemte altså ikke. Firekjerner ser heller ikke ut til å gi voldsomme økninger i effekt. For å dra frem noen eksempler: Turion X2 på 31W (rettet) , Athlon64 X2 3800+ 35W, Core 2 Duo 35W til bærbare, Core 2 Quad til stasjonære: 80W og Xeon 53xx til på 80W. Hvem hadde trodd det for et par år siden da AMDs enkeltkjerner var på 45-105W og Intels heteste potet prescott var på over 130W på det meste og ned mot 95W på det minste? Endret 27. september 2006 av Simen1 Lenke til kommentar
andrvas Skrevet 27. september 2006 Del Skrevet 27. september 2006 Når jeg leser dette er det en ting som spøker i underbevisstheten... vaaarmt! Selvfølgelig er det sikkert mulig å fikse dette med mindre effektkrevende prosessorer, men sett i forhold på hvor mange watt dagens prosessorer forbruker (AM2: 125W ??) + dagens GPU´er, så ser jeg for meg en riktig smeltedigel... 6950187[/snapback] Kan jo godt tenkes at i.o.m grafikkporten da vil forsvinne, vil vi se en endring i layout på hovedkort. Kan da godt hende at vi vil få en stock kjøler som er større (tenker først og fremst på bredde og lengde), samt større og mer stillegående vifter. Lenke til kommentar
CAT-scan Skrevet 27. september 2006 Del Skrevet 27. september 2006 Foreløpig er det ingen prosessorer på de offisielle veikartene til AMD eller Intel som bekrefter CPU-er med GPU-kjerne®, men mer om dette kommer kanskje på IDF eller senere. Det finnes allerede veikart som kan tolkes i retning av integrerte GPUer: AMD Talk Modular. Hvis man ser på presantasjonen og der det grå feltet med "other" så kan det f.eks være GPU-funksjonalitet. Her er et intervju med visepresident og teknologisjef Phil Hester i AMD som også nevner noe om modulær design. Personlig har jeg tro på at det kan være snakk om å lage en hetrogen prosessor med ulike typer kjerner. Sansynligvis 2-4 tradisjonelle kjerner og en drøss massivt parallelle småkjerner som kan kjøre f.eks grafikk, fysikk og andre massivt parallelle oppgaver. 6950316[/snapback] Jepp, men at dedikerte grafikkort kommer til å forsvinne fullstendig er vel en helt annen diskusjon. Lenke til kommentar
josse Skrevet 27. september 2006 Del Skrevet 27. september 2006 For å forsette linkingen til andre som allerede har nevnt dette, Matt Pharr snakket om heterogene arktitektuer på årets Graphics Hardware konferanse, Interactive Rendering in the Post-GPU Era. Jeg har dog snakket med ATI ingenører som hever at de vet like lite som oss om hva ATI/AMD sammenslåingen betyr, og at de foreløpig ikke jobbet på samarbeidsprosjekter med AMD. (Derimot jobbet de tre GPU generasjoner framover.) Lenke til kommentar
efikkan Skrevet 27. september 2006 Del Skrevet 27. september 2006 Jeg er skeptisk til sammensmelting av cpu og gpu, siden det begrenser mulighetene til oppgradéring og tilpassing. Jeg er spent på løsningen med minnet, siden grafikkminne har annen struktur enn systemminne. Skal systemminne brukes til alt må det gjøres noen endringer, ellers blir belastningen stor som i dagens system med delt grafikkminne. Når jeg leser dette er det en ting som spøker i underbevisstheten... vaaarmt! Selvfølgelig er det sikkert mulig å fikse dette med mindre effektkrevende prosessorer, men sett i forhold på hvor mange watt dagens prosessorer forbruker (AM2: 125W ??) + dagens GPU´er, så ser jeg for meg en riktig smeltedigel... 6950187[/snapback] Overgangen fra 1 til 2 kjerner gikk da fint uten at vi fikk glovarme prosessorer. Det var jo folk som spådde at 1+1=2 når det kom til effekt men det stemte altså ikke. Firekjerner ser heller ikke ut til å gi voldsomme økninger i effekt. For å dra frem noen eksempler: Turion X2 på 25W, Athlon64 X2 3800+ 35W, Core 2 Duo 35W til bærbare, Core 2 Quad til stasjonære: 80W og Xeon 53xx til på 80W. Hvem hadde trodd det for et par år siden da AMDs enkeltkjerner var på 45-105W og Intels heteste potet prescott var på over 130W på det meste og ned mot 95W på det minste? 6950374[/snapback] Turion X2 er vel på 31 - 35 W, Turion (enkeltkjerne) er på 25 - 35W. kilde Lenke til kommentar
DarkSlayer Skrevet 27. september 2006 Del Skrevet 27. september 2006 Tror heller det handler om å legge til registre/funksjonalitet for generelle operasjoner når det gjelder grafikk. Spesialprosessorer vil vi altid ha. Lenke til kommentar
mad_arab Skrevet 27. september 2006 Del Skrevet 27. september 2006 Jeg har sagt det før, og det ser ut som jeg blir nødt til å si det igjen. 1) Stopp litt. Tror dere som er redd for oppgraderingsmulighetene virkelig at grafikkporter på hovedkortet vil forsvinne? Tror dere virkelig at chipset og hk-produsenter vil gi blanke i gamere? Ærlig talt... tygg litt mer på det og dere vil skjønne hvor absurd det er å bekymre seg. 2) Selvsagt vil en integrering skje. Akkurat som da lydkort, nettverkskort og diverse porter ble integrert på hovedkort. Det er på denne måten man får billigere masseproduserte pc'er. Det er bare et spørsmål om tid før integreringen når dette nivået, slik at grafikk også vil sitte i CPU. Men det betyr ikke at vi vil miste mulighetene til å installere egne og bedre løsninger. Lenke til kommentar
Boralis Skrevet 27. september 2006 Del Skrevet 27. september 2006 Men hva da med valgfriheten? I dag kan jo feks ti personer finne ut at de har behov for samme cpu,men forskjellige grafikkløsninger, vil ikke da dette begrense folks valgmuligheter? Lenke til kommentar
Simen1 Skrevet 27. september 2006 Del Skrevet 27. september 2006 Jeg er spent på løsningen med minnet, siden grafikkminne har annen struktur enn systemminne. Skal systemminne brukes til alt må det gjøres noen endringer, ellers blir belastningen stor som i dagens system med delt grafikkminne. Turion X2 er vel på 31 - 35 W, Turion (enkeltkjerne) er på 25 - 35W. kilde 6950515[/snapback] Rettet. Grafikk trenger ikke noe særlig rask responstid på minnet, men det gjør CPU. Jeg ser for meg at CPU vil få førsteprioritet i minnekontrolleren og at grafikk kan spise av all overskytende båndbredde, noe som ofte betyr 90% av minnebåndbredden. Minnebåndbredden er per i dag 12,8 GB/s med doble minnekanaler DDR2-800. Om ikke så mange måneder dobles dette til 25,6 GB/s med AMDs 4x4 quadfather. Om et par år byttes DDR2 ut med DDR3 og da kan vi få yttligere en dobling til 51,2 GB/s. Det er på høyde med dagens råeste skjermkort. F.eks har Radeon X1950XTX 64GB/s mens mellomklassekort som geforce 7600GT har 22,4 GB/s. Ellers så svarte mad_arab veldig bra på noen av bekymringene. Lavere valgfrihet blir det nok, men neppe så mye at det blir noe å bekymre seg for. F.eks vil det sikkert komme minst 2-3 ulike mengder med småkjerner på CPUen som kan kombineres med ulike CPU-hastigheter og mengder L2 cache. Det hele kommer an på speedbin og hvor mange defekte minikjerner og L2 cache det er. I tillegg vil nok kombinerte brikker neppe komme opp i toppsjiktet i grafikkmarkedet. Trolig vil det innta budsjettmarkedet først og så mellomklassemarkedet om det klarer. PCIe-portene vil nok fortsatt stå klare til å motta selvvalgte skjermkort. Akkurat som man har PCI-porter til lydkort, nettverkskort osv hvis man ikke vil bruke det innebygde. En annen sammenligning er da FPU gikk fra å være en ekstern brikke til å bli en del av prosessoren. (ca 1992) Lenke til kommentar
ATWindsor Skrevet 27. september 2006 Del Skrevet 27. september 2006 Trolig vil det innta budsjettmarkedet først og så mellomklassemarkedet om det klarer. PCIe-portene vil nok fortsatt stå klare til å motta selvvalgte skjermkort. Akkurat som man har PCI-porter til lydkort, nettverkskort osv hvis man ikke vil bruke det innebygde. 6950698[/snapback] Ja, jeg håper denne spådommen slår til, jeg kunne gjerne tenkt meg at opptil mellomklasse ytelse var innebygd på hovedkortet, for oss som bare spiller en gang i blant hadde det vært fortreffelig. AtW Lenke til kommentar
O.J Skrevet 27. september 2006 Del Skrevet 27. september 2006 Vil vel ikke se dette i high-end gaming pc'er. tror det i første omgang blir i budsjett pc'er der man har en del å tjene/spare på å smelte sammen CPU og GPU. Lenke til kommentar
Simen1 Skrevet 27. september 2006 Del Skrevet 27. september 2006 En annen fin bieffekt av en sammenslåing er at varmebudsjettet på f.eks 65W deles på GPU og CPU. Dagens systemer med f.eks 89W til CPU og 100W til skjermkortet produserer mye varme og setter høye krav til strømforsyning og andre komponenter. En sammenslåing vil altså ikek bare senke kostnadene til kretskort, porter, minne, kjølere, osv, men også senke kostnaden på PSU og strømregningen. Særlig i land der de bruker aircondition til til å holde PC-rommene kjølige. Lenke til kommentar
kilik Skrevet 27. september 2006 Del Skrevet 27. september 2006 Kanskje vi går mot delt minne som på Xbox 360? Lenke til kommentar
b-real Skrevet 27. september 2006 Del Skrevet 27. september 2006 Her har du noe jeg savner av hardware.no...en GOD forklaringsartikkel på hva som menes med at disse to skal smelte sammen, ikke bare et kort resume av sammendraget til hva en AMD-ansatt har skrevet på noen sider. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå