Del Skrevet 14. august 2006 Del Skrevet 14. august 2006 Ja, huff så ille det var da hovedkortene fikk nettverk, lyd og usb integrert... 6672195[/snapback] Ikke helt sammenlignbart vel. Er det noen som har kunnskap om hvorvidt latency mellom GPU og CPU er viktig, evt. synkronisering? Når det gjelder AMD tror jeg de har tenkt på hypertransport for kommunikasjon mellom CPU og GPU i første omgang. Å bygge CPU og GPU i samme chip for et system med behov for bra GPU, er jeg veldig skeptisk til. At dagens prosessorer kan følge en utvikling hvor oppgavene til typisk integrert grafikk kan gjøres er greit. Jeg tror den største utfordringen blir at både GPU og CPU har utviklet seg i hver sin retning over lengre tid, hvilket har bl.a. resultert i at GPU er mye lavere klokket, har mye bredere design, at GPU har mye bedre minne, og GPU har mye større båndbredde med minnet. Å legge dem i samme kjerne virker derfor lite realistisk, så hvis man likevel skal ha dem på forskjellige kjerner, men samme sokkel, blir spørsmålet hvordan de skal kommunisere, en slags x-bar eller noe? Er det grunn til å tro at dette vil gi mer enn å ha GPU f.eks. på egen sokkel med kommunikasjon ved HTT? Lenke til kommentar
Simen1 Skrevet 14. august 2006 Del Skrevet 14. august 2006 Forstår ike helt hvordan de skal få plass til all elektronikken så sentrert. Og jeg lurer også på hva slags monster-kjøling som vil trenges for å kjøle ned noe sånt. 100watt fra GPUen plus 80watt fra CPUen i samme fysiske brikke?... ouch!6671995[/snapback] Plassmessig er det ingen problemer med å putte to kjerner på en sokkel. Det kan gå litt ut over yield å sy sammen CPU og GPU på en samlet brikke, det vil i så fall også gi bedre kommunikasjon mellom de ulike delene av brikken samt en liten smule lavere effektutvikling. Man MÅ jo ikke klaske sammen de mest effektslukende monstrene. Akkurat som når man gikk fra to 89W enkeltkjerner til en 89W dobbeltkjerne CPU. Klokkefrekvensene vil selvsagt bli en smule lavere, men jeg ser ikke så mange lengre som klager på at Athlon64 FX60 er lavere klokket enn FX57. Det samme tror jeg vil skje med CPU + GPU. Det vil jo uansett ikke være snakk om å integrere de kjappeste GPU'ene. Det vil uansett et marked for entusiaster til å putte et nytt skjermkort i en port på hovedkortene, så lenge vi ønsker nettopp det. Integrert CPU/GPU vil neppe være særlig forskjellig i bruk fra dagens løsninger med integrert hovedkort-grafikk, dvs middelmådig og tilpasset massemarkedet.6672218[/snapback] Enig med deg her. De raskeste GPUene for entusiaster og profesjonelle (CAD, DAC etc) vil nok bli separate produkter av mange grunner (yield, minnebåndbredde, effektbegrensninger osv). Men folk med moderate behov vil nok få en løsning som både yter svært mye bedre enn dagens integrerte grafikk, til en betydelig lavere pris enn i dag. For å lage et teoretisk eksempel: I dag kjøper man kanskje noe i prisklassen Athlon64 3800+ og geforce 7600GT. Om 3-5 år står kansje den samme spilleren ovenfor valget mellom enten prosessor til 1300kr og en skjermkort til 1500kr eller en CPU/GPU til 2000kr som yter likt på både både grafikk og generelle oppgaver. Kikker vi ennå lengre ned på ytelsestigen ser vi i dag løsninger som f.eks Athlon64 3200+ og geforce 6200TC. Slike kan med fordel kombineres og bli til en brikke. Det sparer mye PCB-plass og minnet kan brukes til begge deler. Husk at AMD vil ha gått over på DDR3 eller muligens DDR4 som systemminne når GPU + GPU begynner å bli reellt. Båndbreddene skal det neppe være noe å si på. Regner også med at en minnekontroller vil prioritere trafikken på en smart måte, f.eks ved å gi CPU-delen førsteprioritet på små aksesser og la GPU-delen få spise seg mett på båndbredde. Lenke til kommentar
Anders Jensen Skrevet 14. august 2006 Del Skrevet 14. august 2006 På nåværende tidspunkt sliter jeg med å se noen nevneverdige tekniske fordeler med integrasjon av CPU og GPU, men om GPU utvikler seg til å bli en mer generell vektorprosessor så kan det vel være greit at den får bedre tilgang på RAM og det gjøres best ved integrering. Før den tid må en imidlertid endre den fysiske organiseringen av RAM slik at en får ytelse som tilfredsstiller både GPU og CPU. Lenke til kommentar
magnemoe Skrevet 14. august 2006 Del Skrevet 14. august 2006 Jeg lurer litt på hva som er hensikten på en pc. Alle pcer har cpu og northbridge intel bruker også southbridge, GPU for pcer med integrert skjermkort ligger i northbridge. Slik jeg ser det er det lite behov for rask komunikasjon mellom CPU og GPU, hoved fordelen med å integrere vil være at latency mellom dem ville bli mye mindre. Annet vil det være like greit å legge gpu på northbridge og gi cpu en ekstra kjerne eller mer cache i steden. Ser heller ikke noen problemer å plassere en noe kraftigere GPU på northbridge en det som leveres med integrerte skjermkort i dag, dette vil være en idee med tanke på vista. Fordelen vil være at du kan kansje kombinere deler av funksjonaliteten For mobiltellefoner, pda og lignende vil dette være en bedre idee, du kan spare på en chip og får samlet de varme og energikrevende prosessene et sted. Lenke til kommentar
leifeinar Skrevet 14. august 2006 Del Skrevet 14. august 2006 kan vel også ha store fordeler i små flate stue maskiner..? er vanskeli og få plass til bra gpu der. Lenke til kommentar
NoWiSee Skrevet 14. august 2006 Del Skrevet 14. august 2006 Forstår ike helt hvordan de skal få plass til all elektronikken så sentrert. Og jeg lurer også på hva slags monster-kjøling som vil trenges for å kjøle ned noe sånt. 100watt fra GPUen plus 80watt fra CPUen i samme fysiske brikke?... ouch! -Stigma 6671995[/snapback] De har allerede Dual Core CPU, altså 2 kjerner.. til høsten får vi Kentsfield som er 4 kjerner. Så da er det nok mulig å få inn en GPU eller 2 Lenke til kommentar
KongeOdin Skrevet 14. august 2006 Del Skrevet 14. august 2006 Dersom man har f.eks. 7 kjerner der f.eks. 2 er øremerket grafikk 1 fysikk 1 lyd og 3 resterende prosesser regner jeg med at resultatet uansett blir ganske brukbart. Skulle ikke cell prosessoren ha kjerner som var øremerket bestemte oppgaver? I senere utgaver av prosessorer med f.eks. 49 kjerner skulle man jo kunne tenke seg at kanskje ikke en egen prosessor enhet på skjermkortet blir nødvendig. Lenke til kommentar
leifeinar Skrevet 14. august 2006 Del Skrevet 14. august 2006 Dersom man har f.eks. 7 kjerner der f.eks. 2 er øremerket grafikk 1 fysikk 1 lyd og 3 resterende prosesser regner jeg med at resultatet uansett blir ganske brukbart. er noe sånnt jeg og så for meg. men som nevnt over kanskje ikke helt bra for konkuransen? en annen ting er at mange av oss i dag skaffer oss en highend pc ved klokking. man kjøper bra skjermkort og med svak og bili cpu. så klokker man cpu opp tillsvarende en til 6-7K ser det for meg slik at highend cpu blir kryssa med highend gpu så derfor "frykter" jeg fører høyere hw priser Lenke til kommentar
usæl-gesæl Skrevet 14. august 2006 Del Skrevet 14. august 2006 fint om nvida kunne startet egen cpu prod i så fall. Lenke til kommentar
mohseni Skrevet 15. august 2006 Del Skrevet 15. august 2006 I likhet med andre tror Nvidia fremtiden vil bringe løsninger der CPU og GPU integreres på én enkelt sokkel. Les mer 6671908[/snapback] Litt back to the future eller hur?! Det er jo lov å prøve. Lenke til kommentar
Reeve Skrevet 15. august 2006 Del Skrevet 15. august 2006 tror det vil blir ekstremt varme prosessorer, og tror at entusiaster vil fortsette med eget grafikkkrot. er jo også lettere å forme sitt eget system, om du ikke må velge prosessor og GPU i en pakke. I så fall, må det finnes mange pakker. Lenke til kommentar
Simen1 Skrevet 16. august 2006 Del Skrevet 16. august 2006 tror det vil blir ekstremt varme prosessorer, og tror at entusiaster vil fortsette med eget grafikkkrot. Jeg tror ikke de vil øke TDP for å pakke inn grafikk. Hensikten med integrering er ikke bare at man sparer bort en hel del kretskort og komponenter og dermed får lavere kostnader og priser men også lavere totalt effektforbruk. Hvorfor ha et grafikort på 65W + en prosessor på 65W når man kan kombinere begge og få en CPU/GPU som er like kraftig på f.eks 89W? For en lavere pris selvsagt. Ellers så er jeg enig i at CPU og GPU trolig vil forbli adskillte for toppspesifiserte systemer for entusiaster. er jo også lettere å forme sitt eget system, om du ikke må velge prosessor og GPU i en pakke. I så fall, må det finnes mange pakker.6683166[/snapback] Forvent mange flere pakker slike du sier. F.eks 5 nivåer av GPU pluss rundt 10 nivåer av CPU, altså opp mot 50 forskjellige prosessormodeller der vi i dag finner 10. (desktop). Forvent også at yield vil gå opp og prisene ned fordi det blir flere deler av prosesorkjernen man kan slå av eller klokke ned hvis disse ikke fungerer skikkelig. Akkurat som det gjøres med antall pipelines på GPUer og L2 cache på prosessorer. Lenke til kommentar
b-real Skrevet 16. august 2006 Del Skrevet 16. august 2006 Kanskje derfor AMD har gjort innkjøp av ATI? For å kunne ha litt kontroll på akkurat dette markede og denne tankegangen for å bygge nye plattformer? Høres veldig rellevant ut egentlig ja. Lenke til kommentar
weebl Skrevet 16. august 2006 Del Skrevet 16. august 2006 dette kan kanskje være noe på bærbarfronten, man har jo begrenset med plass osv... så jeg kan nesten ha kunne tenkt meg dette i en laptop, men så ødelegger det jo for valgmulighetene da. det blir jo antakelig vis AMD/ATI og intel/nVidia. men jeg tror jeg vil holde meg til eget skjermkort og cpu. i stasjonære. Lenke til kommentar
ATWindsor Skrevet 16. august 2006 Del Skrevet 16. august 2006 dette kan kanskje være noe på bærbarfronten, man har jo begrenset med plass osv... så jeg kan nesten ha kunne tenkt meg dette i en laptop, men så ødelegger det jo for valgmulighetene da. det blir jo antakelig vis AMD/ATI og intel/nVidia. men jeg tror jeg vil holde meg til eget skjermkort og cpu. i stasjonære. 6684654[/snapback] Jeg er litt usikker, om det blir sånn Simen1 spår,at man får ytelse tilsvarende dagens mellomklasse/lave mellomklasse integrert, så er det bra nok for en moderat spiller som meg selv ihvertfall. (I dag kan man jo kjøre spill ganske bra også på mellomklassen, for noen år siden var jo oppløsningen på toppkort 640*480). Så jeg hadde antakelig kjøpt det. AtW Lenke til kommentar
VikinGz Skrevet 16. august 2006 Del Skrevet 16. august 2006 Er vell litt slikt allerede eller? For intrigerte skjermkort i hovedkorte, er da ikke prossesoren med å regner 3d? Lenke til kommentar
Simen1 Skrevet 16. august 2006 Del Skrevet 16. august 2006 Nei, også på integrert grafikk er det utelukkende GPUen som tar seg av alle grafikkberegningene. Altså shadere, fylle flater med teksturer, regne sammen AA og AF osv. Selv integrerte GPU'er er veldig mange ganger raskere til slike opgpaver enn det CPU er. (kanskje 5-10 ganger så rask på de aller svakeste integrerte GPU'ene) Men på integrert lyd stemmer det ganske bra. Prosessoren tar seg av mye av beregningene i "rendring" av 3D-lyd osv. Integrerte lydbrikken er bare litt mer enn en flerkanals D/A og A/D-konverter. Lenke til kommentar
Kjetil-H Skrevet 16. august 2006 Del Skrevet 16. august 2006 (endret) Det blir for mye tenking inni boksen her.. Inspriasjon for videre diskusjon: http://www.theinquirer.net/default.aspx?article=33219 Mvh Kjetil Endret 16. august 2006 av rotekaizer Lenke til kommentar
Autopsy Skrevet 22. august 2006 Del Skrevet 22. august 2006 Tror dette kan bli veldig bra for stuepcer og bærbare for gamingpcer og redigeringsmaskiner vil vi nok fortsatt se dedikert skjermkort og CPU. Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 22. august 2006 Del Skrevet 22. august 2006 Tror nok veien å gå her er HyperTransport bus og intergrering til denne via eget kort med HTX sokkel (altså glem pcie). Dette gir direkte kommunikasjon prosessorene imellom (omtrent som AMD's 4x4). Dette vil fremover gi noe sånt som Xbox i pc - vi slipper ting som skjermkort drivere og DirectX... Link: HTX Connectivity Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå