Epp Skrevet 31. august 2008 Del Skrevet 31. august 2008 (endret) Og jeg kjøper vel egentlig AMD av ren idealisme: Det er viktig med konkurranse, og AMD gir sånn ca. samme verdi for pengene som om man kjøper Intel til samme pris. (Jeg klokker aldri, så klokkevillighet er uvesentlig). Dermed koster det meg egentlig ganske lite å kjøpe AMD (får ca. samme ytelse/krone som om jeg kjøpte Intel) og dermed bidra til å styrke konkurransen. Litt mer usikker på skjermkortfronten: nVidia har generelt vært suverent best mtp linux-støtte. AMD/ATI er nå på vei til å nå dem igjen. Men hadde det ikke vært for nVidia så hadde neppe AMD/ATI vært der de er nå. Det er slitsomt å handle på "ideologiske" prinsipper! ;-) (Og i dag har jo både nVidia og AMD tilnærmet samme ytelse også) Tja... Jeg har alltid likt AMD best, men denne gangen blir et Intel. Hvorfor? Fordi AMD trenger et spark i ræva og bli bedre samt at jeg vil ha mest igjen for mine penger. Når det gjelder NVIDIA vs ATI/AMD så har NVIDIA lagd gode drivere til linux i mange år. Ikke ATI. Nå er strategien til ATI å gå opensource som er veldig bra! Men fortsatt er ikke R700 dokumentene sluppet grunnet gjennomgang av dokumentene med hensyn på IP rettigheter. De kommer nok, men kan ta tid. NVIDIA vil ikke slippe dokumenter for open source drivere. NVIDIA har også CUDA... Så jeg er i samme klemma. Har mye dårlig erfaring med ATI kort og vet ikke om jeg orker å styre igjen i lange tider med et ATI kort som virker så som så. Hadde vært deilig med noe som bare fungerer... Dog en open source driver er lettere å få forbedret... Dessuten måtte HD4850/70 serien bli sluppet med firmware feil for viftene og det ser ut til at ikke alle får til å flash'e BIOS. Det som er positivt dog er at HD4850 bruker mindre strøm... Så jeg må nok sitte på gjerde en stund til før jeg kjøper, for å se hva som skjer særlig med tanke på andre HD4850 kort med bedre vifter. Når det gjelder å bygge en oppgraderbar PC, så ser det ut til den eneste veien er DDR3 minne. Man må uansett bytte HK og CPU. Men DDR3 minne i dag blir sikkert en flaskehals i fremtiden, så tror jeg kommer til å bygge en PC som sparker mye, men som ikke stikker av med hele lommeboka Dessuten AM3 og X58 med tilhørende CPUer vil nok være dyre og ha barnesykdommer det første året. Så lite bang for the bucks... Endret 31. august 2008 av Epp Lenke til kommentar
SVD Skrevet 31. august 2008 Del Skrevet 31. august 2008 (endret) Du vet jo ikke hvordan Deneb yter enda da, så kanskje de ikke trenger og sparkes så hardt Endret 31. august 2008 av SVD Lenke til kommentar
efikkan Skrevet 31. august 2008 Del Skrevet 31. august 2008 Og om da AMD Deneb skal bli hakket vassere enn dagens Penryn, og da også i spilling så kan fort AMD Deneb blir den nye store spillprosessoren, vil sikkert koste endel mindre enn Nehalem også! Problemet er at nye spill blir mer og mer multi-threaded. Da får igjen Nehalem en fordel. Vi får se når tester av Deneb kommer fra seriøse aktører, men per nå ligger Phenom for langt bak Penryn til at jeg tror at Deneb har en sjanse. Vel det gjenstår å se ja. Men husk at spill har en tendens til dårlig utnytting av flere kjerner, og slik som dagens spill bygges opp er det begrenset hvor mange prosesser de kan splittes opp i og få bedre ytelse. Ofte er 2 - 4 prosesser passe, og flere kjerner eller "hyperthreading" ville nok ikke gjort stor forskjell her slik utviklingen ser ut på kort sikt. På lang sikt derimot så er det mulig at tyngre fysikkberegning vil egne seg til å fordele over mange kjerner, avhengig av hvilken teknologi som benyttes. Lenke til kommentar
Epp Skrevet 31. august 2008 Del Skrevet 31. august 2008 Du vet jo ikke hvordan Deneb yter enda da, så kanskje de ikke trenger og sparkes så hardt neida, men den er ikke på markedet nå ;-) Lenke til kommentar
Epp Skrevet 31. august 2008 Del Skrevet 31. august 2008 (endret) Vel det gjenstår å se ja. Men husk at spill har en tendens til dårlig utnytting av flere kjerner, og slik som dagens spill bygges opp er det begrenset hvor mange prosesser de kan splittes opp i og få bedre ytelse. Ofte er 2 - 4 prosesser passe, og flere kjerner eller "hyperthreading" ville nok ikke gjort stor forskjell her slik utviklingen ser ut på kort sikt. På lang sikt derimot så er det mulig at tyngre fysikkberegning vil egne seg til å fordele over mange kjerner, avhengig av hvilken teknologi som benyttes. Noe som er irriterende i mange spill er loadinga mellom "scener" i spill. Om man kunne bruke flere kjerner for å lage sømløst spilling hadde det vært et stort fremskritt. Det vil selvsagt medføre mye mer minne enn vanlig i dag... tror at om 5 år er 16+ kjerner vanlig samt 24++ Gb RAM Ellers tror jeg flerkjerner CPUer vil bli bra utnyttet i fremtiden... Endret 31. august 2008 av Epp Lenke til kommentar
efikkan Skrevet 31. august 2008 Del Skrevet 31. august 2008 <klipp>Noe som er irriterende i mange spill er loadinga mellom "scener" i spill. Om man kunne bruke flere kjerner for å lage sømløst spilling hadde det vært et stort fremskritt. Det vil selvsagt medføre mye mer minne enn vanlig i dag...<klipp> Jeg må generalisere litt mye for å få frem et poeng her. Under lasting av de fleste spill er det ikke CPUen som er begrensningen. Som regel er det lagringsmediet som begrenser, og i noen tilfeller GPU, f.eks. under lasting til FBO. I tillegg finnes spill som er trege under lasting på grunn av dårlig koding. Slik jeg ser det, er ikke flere kjerner i CPU det som skal til for å få raskere lasting i spill. Flere kjerner er trolig vanlig om noen år, og dette vil komme til stor nytte i encoding av video og andre ting som lar seg lett fordele på x antall kjerner. Men om spill skal dra stor nytte av 16+ kjerner, må det en fundamental endring til i hvordan spill kodes. Dessuten er spill i dag i de fleste tilfeller begrenset av GPU fremfor CPU, siden den tyngste beregningen i de fleste spill er grafikken. Dette kan endre seg på sikt, men jeg tror ikke vi ser en endring i morgen. Men jeg skal være veldig forsiktig med slikt, for denne bransjen endrer seg raskt. Lenke til kommentar
Kirchhoff Skrevet 31. august 2008 Del Skrevet 31. august 2008 Det med at spill har dårlig multithreading støtte er noe jeg ikke forstår. For fysikk prosessorer som physx(som nå nvidia støtter) har jo mange kjerner som jobber sammen. Hvorfor er det ikke mulig å gjøre det med en cpu? Lenke til kommentar
Epp Skrevet 31. august 2008 Del Skrevet 31. august 2008 Dessuten er spill i dag i de fleste tilfeller begrenset av GPU fremfor CPU, siden den tyngste beregningen i de fleste spill er grafikken. Vel, når jeg ser på tester av GPU så klager flere på at man ikke har overklokket CPUen til 4.0 GHz så den ikke er flaskehals. GPU begynner å bli så kraftig nå at CPU kan fort bli flaskehals. Man kan ikke forvente at hvem som helst overklokker (jeg har ingen planer om det f.eks). Så flere kjerner trengs. Bare se på distribuerte systemer for å løse store beregningssystemer. Mitt poeng er at man vil presse grensene hele tiden og ting vil bli mer avansert. Men IO er et stort problem ja... Lenke til kommentar
OnetroM Skrevet 1. september 2008 Del Skrevet 1. september 2008 Ut fra hva jeg kan lese i enkelte poster her så virker det som enkelte CPU'er passer både i AM2, AM2+ og AM3? Er det 'kun' minnehåndteringen (DDR3) som virkelig er det store nye med AM3, eller er det andre ting å ha med i betraktningen. Det er lenge siden jeg bygde pc'n jeg har nå, så jeg har ikke fått fulgt med underveis. Står liksom ikke noe i artikkelen om teknologien, bare når den kommer.. Lenke til kommentar
Theo343 Skrevet 1. september 2008 Del Skrevet 1. september 2008 Når det gjelder GPU og CPU som flaskehals så kommer det helt ann på spillet. Før ville et spill med mye fysikk fort gjøre CPU til en flaskehals, nå vil GPU ta overt fysikkberegninger og da kan flaskehalsen flytte seg igjen. Lenke til kommentar
efikkan Skrevet 1. september 2008 Del Skrevet 1. september 2008 Det med at spill har dårlig multithreading støtte er noe jeg ikke forstår. For fysikk prosessorer som physx(som nå nvidia støtter) har jo mange kjerner som jobber sammen. Hvorfor er det ikke mulig å gjøre det med en cpu? I grafikkberegninger kan mange ting gjøres parallelt, f.eks. hver piksel, siden de er uavhenginge av hverandre. I fysikkberegninger har det etter hvert blitt aktuelt å gjøre tilsvarende, og siden GPUer har mange "kjerner" som kan gjøre mange "enkle" beregninger samtidig, så kan GPU være godt egnet til fysikk. CPU (x86) må tilby en haug av ulike instruksjoner, i et helt annet spekter enn GPU, og typiske arbeidsoppgaver for CPU er kode der neste kommando er avhengig av resultatet av forrige. Derfor må gjerne hele prosedyrer eller moduler kjøre på hver sin kjerne, og typisk har spill blitt delt opp slik at ulike uavhengige beregninger går på hver sin kjerne. Dermed er det begrenset hvor stor gevinst flere kjerner gir for spill med typisk struktur. (eksempel: en prosess for input, og en for ulike typer funksjoner i spillet osv.) Fordelen i forhold til én kjerne er at de ulike prosessene ikke vil forsinke hverandre, men ulempen er at det er vanskelig å dra nytte av flere kjerner. Unntaket er fysikken, som etter hvert har blitt så krevende at det kan være gevinst å splitte opp over flere kjerner, men igjen, så er ikke dagens x86-CPU spesielt godt egnet til dette. Der kommer f.eks. CUDA inn. Men sett bort i fra selve fysikken, så er det i dag ikke store flaskehalser på CPU for spilling. Dessuten er spill i dag i de fleste tilfeller begrenset av GPU fremfor CPU, siden den tyngste beregningen i de fleste spill er grafikken. Vel, når jeg ser på tester av GPU så klager flere på at man ikke har overklokket CPUen til 4.0 GHz så den ikke er flaskehals. GPU begynner å bli så kraftig nå at CPU kan fort bli flaskehals. Man kan ikke forvente at hvem som helst overklokker (jeg har ingen planer om det f.eks). Så flere kjerner trengs. Bare se på distribuerte systemer for å løse store beregningssystemer. Mitt poeng er at man vil presse grensene hele tiden og ting vil bli mer avansert. Men IO er et stort problem ja... Med enkelte unntak, så er skjelden CPU en flaskehals i slike sammenhenger i dag.Du kan holde på det vis i det uendelige og mene den ene etter den andre komponenten er en flaskehals, men når vi snakker om flaskehals menes det at én eller flere komponenter begrenser betydelig ytelsen i forhold til resten. I de fleste krevende spill i dag er GPU uten tvil en "flaskehals" (skru opp høy AA/AF i høy oppløsning). Til nå har det grafiske vært langt mer krevende enn fysikk i spill, og da er det liten grunn til at CPUen skal være flaskehals med mindre det er en Celeron sammen med et monster-skjermkort eller at spillet er dårlig kodet. Lenke til kommentar
Kirchhoff Skrevet 1. september 2008 Del Skrevet 1. september 2008 Synes at det blir litt for svart hvitt om man sier at enten gpu eller cpu er flaskehals. Viss vi tenker oss radeon 4870 sin ytelses graf sammen med forskellige cpuer, vi begynner med sempron på under 2 ghz og avslutter med E8600/qx9700(elns). Denne grafen vill være bratt i starten men bli flatere og flatere, men det vil være en lett målbar forskjell på E6750 og E8600. Hvor en cpu slutter å være flaskehals er ikke godt å si egentlig. Lenke til kommentar
Spirre Skrevet 2. september 2008 Del Skrevet 2. september 2008 min opteron 180 @ 2900mhz starta å være en flaskehals da jeg monterte inn 8800gts 320 nr 2 i maskina. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå