Erlend0_o Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 I mine øyne synes jeg CPU/GPU sammensmalting er en dårlig ide f.eks vis du er fornøyd med CPU men ikke GPU så må du skifte hele driten. Den vil ha høyre tempratur. Vil være vanskelig å oppdatere vis du skal ha CPU med ny soket så kan du nå forsatt ha skjermkortet mens vis det er sammensmelta vil jo det ikke gå... Nei hold dem seperat Lenke til kommentar
Gjest Slettet-XHLacM Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 (endret) Det må jo bli veldig upraktisk hvis CPU og GPU smelter sammen. Hvis du bestemmer deg for å sikfte "skjermkortet" må du jo skifte CPUen også. EDIT: Så ikke innlegget over... antar noen tenker det samme som meg. Endret 23. oktober 2006 av Slettet-XHLacM Lenke til kommentar
Simen1 Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Det var ikke mange klager på at det ble umulig å bytte ut FPU når FPU ble smeltet sammen med en ALU CPU-kjerne for et drøyt tiår siden. Slik tror jeg det kommer til å bli med CPU og GPU også. Erlend0_o: Det er ikke sikkert at GPU + CPU vil få høyere temperatur enn når de er separate. Dobbeltkjernede prosessorer har f.eks ikke noe særlig høyere effektforbruk enn de enkeltkjernede selv om enkelte spådde en dobling. Det at man slipper to PCI-e kontrollere, to HyperTransport eller FSB-kontrollere gjør at man vil spare en god del effekt på å slå de sammen og samtidig hente en god del ekstra ytelse. Så om klokkefrekvensen må senkes med 10-20% for å få smeltet de sammen så tror jeg det er fint overkommelig ytelsemessig. Prismessig vil det nok også få en del fordeler. Jeg tipper et system med sammensmelt CPU og GPU vil spare inn en del kostnader til PCB, spenningskontrollere, porter mm. Med andre ord forventer jeg: lavere priser, mer kompakte systemer, lavere totalt effektforbruk og omtrent tilsvarende ytelse som en separat løsning. Lenke til kommentar
Andrull Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 (endret) Hu og hei, en CPU på 100W + en GPU på 250W blir jo "spennende" å se hvordan går..... I mine øyne synes jeg CPU/GPU sammensmalting er en dårlig ide f.eks vis du er fornøyd med CPU men ikke GPU så må du skifte hele driten.Den vil ha høyre tempratur. Vil være vanskelig å oppdatere vis du skal ha CPU med ny soket så kan du nå forsatt ha skjermkortet mens vis det er sammensmelta vil jo det ikke gå... Nei hold dem seperat Helt enig. Jeg sier ja til flere dedikerte ting, og PCen vil bli enda mer oppgraderbar/mest mulig tilpasset ditt behov. (noen trenger kanskje en E6800Extreme, men trenger bare 7300LE osv..) At fysikk og skjermkort smelter sammen er nok positivt, da PPU og GPU begge er bra å ha til f.eks spill, mens en CPU og GPU har så vidt forskjellige oppgaver at dette høres ut som en dårlig ide. Hvis det er slik at man har lyst å spare penger og plass, så bare kjøp et hovedkort med Intergret skjermkort! (så har du faktisk oppgraderingsmuliheter i tillegg)! Nei, dette kunne de spart seg for..... Endret 23. oktober 2006 av andrull Lenke til kommentar
kindings Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 I mine øyne synes jeg CPU/GPU sammensmalting er en dårlig ide f.eks vis du er fornøyd med CPU men ikke GPU så må du skifte hele driten.Den vil ha høyre tempratur. Vil være vanskelig å oppdatere vis du skal ha CPU med ny soket så kan du nå forsatt ha skjermkortet mens vis det er sammensmelta vil jo det ikke gå... Nei hold dem seperat 7132605[/snapback] Integrerte løsninger er somregel en dårlig ide mht fleksibilitet, slik er det bare. Dog er det godt mulig at 1 C/GPU blir billigere enn en av hver og derfor vil egne seg i visse systemer som sannsynligvis ikke blir oppgradert, blant annet bærbare. Erlend0_o: Det er ikke sikkert at GPU + CPU vil få høyere temperatur enn når de er separate. Dobbeltkjernede prosessorer har f.eks ikke noe særlig høyere effektforbruk enn de enkeltkjernede selv om enkelte spådde en dobling. Tror ikke heller det nødvendigvis er verdens ende mht effektforbruk, men da forutsetter jeg at man ikke tar den enkle løsningen, dvs smeller en GPU og en CPU på samme sokkel(type tokjerne) og kaller det en integrert løsning. Lenke til kommentar
Blank_File Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Jeg må også si at jeg ser ikke helt fordelene helt ytelsesmessig her... Greit nok for folk som ikke bruker GPUen noe nevneverdig, men for oss som spiller må jo dette bli noe dritt? Var det ikke nettopp derfor de begynte å lage "3D kort" i sin tid? Lenke til kommentar
Din_Laban Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Men tenk nå litt. I dag utvikler man quadro CPU'er, og det kommer sikkert systemer med enda flere kjerner. Hvorfaor kan man ikke designe f.eks. et quadro eller octo (hehe, 8-kjerne) der de ulike kjernene har ulike oppgaver/ assignes til ulike tråder og prosesser? sånn som jeg tenker om dette så lar det seg vel gjøre? -det hadde uansett ikke vært så dumt med en slik løsning, som sikkert kan bli high-end som noe annet. Lenke til kommentar
Simen1 Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Hu og hei, en CPU på 100W + en GPU på 250W blir jo "spennende" å se hvordan går..... La meg gjette: 65W (en moderne dobbeltkjerne CPU) + 100W (et moderne topp skjermkort) = 120W etter innsparingene som kommer ved at man slipper å ha en rekke forskjellige effektkrevende busskontrollere mellom brikkene og vet at de kan dele på spenningskontrollere osv. At fysikk og skjermkort smelter sammen er nok positivt, da PPU og GPU begge er bra å ha til f.eks spill, mens en CPU og GPU har så vidt forskjellige oppgaver at dette høres ut som en dårlig ide. Cell er et eksempel på hvordan det kan gjøres. Det er store fordeler av å samle ulike typer kjerner på samme brikke. Hvis det er slik at man har lyst å spare penger og plass, så bare kjøp et hovedkort med Intergret skjermkort! (så har du faktisk oppgraderingsmuliheter i tillegg)!7132794[/snapback] Det er forventet at man fortsatt får oppgraderingsmuligheter på systemer med kombinert CPU og GPU. (i hvertfall i starten) Lenke til kommentar
Anders Jensen Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Hu og hei, en CPU på 100W + en GPU på 250W blir jo "spennende" å se hvordan går..... La meg gjette: 65W (en moderne dobbeltkjerne CPU) + 100W (et moderne topp skjermkort) = 120W etter innsparingene som kommer ved at man slipper å ha en rekke forskjellige effektkrevende busskontrollere mellom brikkene og vet at de kan dele på spenningskontrollere osv. 7132879[/snapback] Ja det er helt klart at det er mye effekt å spare her, men det kan bli litt høy effekttetthet på de råeste modellene. Og som du nevner lengre oppe; det var svært få klager på at FPU ble integrert back in the days da 386 var det store. Eneste klagen jeg har hørt om er fra noen Intel sjefer som ville ha muligheten til å selge FPU som ekstrautstyr... Lenke til kommentar
Simen1 Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Jeg må også si at jeg ser ikke helt fordelene helt ytelsesmessig her... Greit nok for folk som ikke bruker GPUen noe nevneverdig, men for oss som spiller må jo dette bli noe dritt? Var det ikke nettopp derfor de begynte å lage "3D kort" i sin tid?7132842[/snapback] Nei, grunnen til at 3dfx fant opp 3D-kort var at CPUer ikke egnet seg til å behandle grafikk, noe de fortsatt ikke gjør. Forskjellen på 2D og 3D skjermkort var at 3D kortene hadde et instruksjonssett som med letthet kunne ta over mange operasjoner som krevde mye av CPU. Etter hvert har det utviklet seg til massivt parallelle grafikkprosessorer med inntil 128 logiske kjerner (nvidia G80). CPUenes styrke er at de kan gjøre alle typer operasjoner middels bra til tross for at de ikke er særlig parallelliserbare. GPUens styrke er at den kan gjøre ekstremt mange operasjoner samtidig, men det krever at operasjonene er svært parallelliserbare. Begge deler i en pakke vil gi stor styrke på både parallelliserbare og ikke parallelliserbare operasjoner i en og samme brikke. Dagens løp med parallellisering av noen få CPU-kjerner fører langt i fra noen bra ytelseskalering fordi mange oppgavene ikke lar seg parallellisere. Det er mye mer logisk å lage en brikke som er god på begge deler. Men tenk nå litt. I dag utvikler man quadro CPU'er, og det kommer sikkert systemer med enda flere kjerner. Hvorfaor kan man ikke designe f.eks. et quadro eller octo (hehe, 8-kjerne) der de ulike kjernene har ulike oppgaver/ assignes til ulike tråder og prosesser? sånn som jeg tenker om dette så lar det seg vel gjøre? -det hadde uansett ikke vært så dumt med en slik løsning, som sikkert kan bli high-end som noe annet.7132854[/snapback] Enig! Jeg ser liten hensikt med å parallellisere CPUer med yttligere CPU-kjerner. De egner seg ikke for parallellisering likevel. Putt heller inn GPU-kjerner siden deres spesialstyrke er nettopp ekstrem parallellisert ytelse. Den optimale kombinasjonen slik jeg ser det for meg om 5 år er 2 CPU-kjerner og en GPU med f.eks 512 "kjerner" (shaders). Minnebussen bør nok forbedres en del. F.eks utstyres med 2-4GiB høyhastighetsminne på en 512bit minnebuss. Dette minnet kan fungere som minne for både grafikk og annen kode. Delt L3 cache og separat L2 cache kan være andre fordeler. Lenke til kommentar
Din_Laban Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Ja det må være en kjempeløsning du skisserer det, Simen1. Lenke til kommentar
Phyx Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Så lenge dette kan gi en besparelse vd innkjøp på jobb pc'n som jeg bruker til word & excel så syns jeg cpu+gpu er en fin ting. Når ting begynner og gå treigt så blir det og kjøpe ny pc. Lenke til kommentar
TAS Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Spill industrien vil da ha nytte av dette?.Får mindre hardware(standarer) å forholde seg til,lettere å lage spill. Lenke til kommentar
efikkan Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Spill industrien vil da ha nytte av dette?.Får mindre hardware(standarer) å forholde seg til,lettere å lage spill. 7133294[/snapback] Jeg tror ikke det blir enklere. Det er uansett mange API som de må forholde seg til, som OpenGL og DirectX. Så selve sammensmeltingen gjør vel ikke noen forandring på dette. Lenke til kommentar
TAS Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Tenkte det att,idag er det haugevis av skjermkort og cpu`r på markedet.Dette vil jo bli betydelig redusert da dette skjer. Lenke til kommentar
Gjest Slettet-XHLacM Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Tenkte det att,idag er det haugevis av skjermkort og cpu`r på markedet.Dette vil jo bli betydelig redusert da dette skjer. 7133360[/snapback] Vil det egentlig det? Det vil vel bare bli mange kombinasjoner med forskjellig CPU og forskjellig GPU. Lenke til kommentar
dj_j0tul Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 (endret) jeg har ikke trua på dette som den kresene forbruker jeg er. Men, skal man tjene penger på å lage prosessorer, etz, så må man selge i MANGE kvantum... og oss som bygger selv etz er særforbrukere med et utrolig lite marked, og det markedet Produsenten ville brydd seg minst mulig om(hadde jeg vært produsent og tenkte "fortjeneste"). Tar man for seg bærbare, er markedet noe helt annet, og det samme med billige jobb-pc'er til forsvaret/Posten, etz,etz som kun skal kjøre enkle programmer, og koste minst mulig. Problemet jeg ser i vårt tilfelle(vi som bygger), er at utvalget vil bli SVÆRT begrenset. Man tjener ikke penger på å selge i lite kvantum uten at prisen blir stiv, og det beste eksempelet vi har i dag er extrem-utgavene av prosessorer fra Intel og AMD. Disse tjener selskapet minimalt på, og er der kun for skryt etter min mening. Lages jo i veldig begrenset antall også... noe som skyter prisene i været. Det samme vil eventuelt hende med CPU&GPU sammensmelting... fordi det må lages så mange forskjellige kombinasjoner, og vi vil få noen helvetes priser. Nei.. dette har jeg ikke trua på for min egen del... men for alle som ønsker seg rimelig laptop til jobb etz, så er det nok yppelig. mvh Endret 23. oktober 2006 av dj_j0tul Lenke til kommentar
weebl Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 jeg tror dette kan være en fin sak å bruke i bærbare pcer og i "mini"pcer som shuttle O.l. men jeg tror nok at det vil lønne seg å ha eget skjermkort og egen cpu i en større og kraftigere stasjonær pc. jeg likte egentlig ikke sammensmeltningen mellom amd og ati. dette kan være begynnelsen på at man kun kan bruke amd og ati sammen og intel og nvidia. dette er spesielt en negativ ting for amd elskere som vil kjøre linux siden at det er bedre linuxstøtte med nvidia kort Lenke til kommentar
EirikLF Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 Har liten tro på att nVidia kan klare å henge med her, dette er nok ett marked for Intel og AMD/ATi. Mye bedre enn dagens Integrerte lsninger som nok kommer til å blir argeste konkurenten i de første fasene. High End markedet vil nok ikke gå over til slike løsninger før etter en god stund, både fordi det blir for dyrt hvis man ikke kan oppgradere deler individuelt, og fordi de da kan spre varmen mere. Spørsmålet er når eller om fordelene med slike intergrerte løsninger kommer til å bli så store att High End markedet går over til GPU/CPU i ett. Lenke til kommentar
Gjest Slettet-XHLacM Skrevet 23. oktober 2006 Del Skrevet 23. oktober 2006 (...)dette er spesielt en negativ ting for amd elskere som vil kjøre linux siden at det er bedre linuxstøtte med nvidia kort. 7133614[/snapback] Da får vi håpe at AMD/ATI skjerper seg på det feltet. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå