Bulletus Skrevet 4. november 2010 Del Skrevet 4. november 2010 (endret) Balletus: Det er samme kjøler som jeg har selv og har testet med et representativt utvalg av prosessorene i i7 segmentet. Bra at du modererer deg for med mindre du har fått en vidunderchip så er det pynting av sannheten (les: løgn) så sjøsprøyten står flere meter over båten. Tja , med litt mer kunnskap, kan jeg få den til å gå på mer enn 4.3ghz stabilt , den klarte 4.8ghz LENGE uten blåskjerm. Mitt egentlige spørsmål er om 580gtx kan gi meg et gledelig ytelsehopp enn mitt gamle 295gtx ved 1920X1200 Endret 4. november 2010 av Bulletus Lenke til kommentar
Gjest Slettet+3165 Skrevet 4. november 2010 Del Skrevet 4. november 2010 Var ikke fornøyd med den 45nm 4-kjerne prosessoren jeg hadde og ville heller betale for 32nm 6-kjerne enn å bruke tid på å stange hodet i veggen. Kan bruke den i DAW i minst 5 år til, så det var en knallinvestering. Så det du egentlig sier deg enig i er at vist du ikke kjøper i7-980x for og ha den i sånn mer eller mindre ca. 5 år så er det bortkastet? Tror så godt som alle som har i7-980x, ja til og med du har kjøpt den noe nytt innen da, da tenker jeg spesielt på trangen til og ha det "nyeste" til slutt tar over. Lenke til kommentar
BadCat Skrevet 4. november 2010 Del Skrevet 4. november 2010 (endret) I spill som støtter SLI på 295-kortet vil du få 10-40% (synsing) bedre ytelse. På spill som ikke utnytter SLI på en god måte, vil du få en betydelig økning i ytelsen da 295 i praksis er 2x GTX 260. Uavhengig av tidligere ytelse vil du få en mer jevn framerate med signel GPU enn dobbel-GPU-løsning som GTX 295. IT-henrik: 980x er kanskje det første unntaket i historien der det har lønt seg å kjøpe en ekstremmodell. Det eksisterer ikke 32-nm 4kjerne eller mid-range/ lavpriset 6 kjerne. Kommer ikke til å kjøpe en så dyr prosessor igjen før det svarer seg. Forhåpentligvis kommer det k-rangerte Intelprosessorer til 2-3k. Om jeg så skal kjøpe så dyrt så skal det være første toppmodell på TICK. Dvs første gode modell etter en prosesskrymping. Eneste grunnet til å ha det beste er i såfall å tilfredsstille alle bekjente som vil ha råd og høre erfaringer. Du skulle bare visst hvor mange som ringer meg og vil ha hjelp med Windows 7 når jeg ikke har det engang. Jeg har ikke jobbet med PC-service på 8 år, men folk tror jeg fortsatt er aktiv. 980x er verd det om så bare for 1 år dersom behovet var der, at den kan glede lenge er en bonus. Jeg kommer mest sannsynligvis å kjøpe ny prosessor til en spill-PC når det kommer 22-nm, men jeg kan likevel bruke denne prosessoren praktisk i mange år fremover. Den AMD Opteron prosessoren jeg hadde i 2006 er nesten ubrukelig nå. Den er i prinsippet rask nok i til noe, men å ha PCer med 1 kjerne i daglig drift er helt uaktuelt. 6-kjerne er ikke ubrukelig om 4 år. Har fremdeles tatt vare på E8500 selv om den ikke er i daglig drift. Den kan holde til web, musikkavspilling, filmavspilling, epost, instant messaging i mange år fremover. Det er kun nye spill og tunge applikasjoner som krever oppdatert hardware. Selv slike ting kjører ikke halvgalt på en 2 år og 10 måneder gammel E8500. Endret 4. november 2010 av BadCat Lenke til kommentar
Gjest Slettet+3165 Skrevet 4. november 2010 Del Skrevet 4. november 2010 Hvordan kan du være sikker på at det samme som skjedde med din Operton ikke skjer med 980? Utvikling går uhorvelig raskt nå om dagen, du får trossalt operton med 12 ganger mer kjerner idag enn vi gjor for 4-5 år siden, ser ingen grunn til programutviklerene vil forsette i samme rettningen (vist ikke vil jo produsering av ny teknologi stalle), jeg vil derfor tro 6-kjerner om 4-5år ikke ville være så mye mot de sikkert nærmere (vist ikke over) 20-kjerners cpuene som kan dukke opp på markedet. Lenke til kommentar
del_diablo Skrevet 4. november 2010 Del Skrevet 4. november 2010 IT-henrik: Kjerner = bruker mere strøm, ikke glem at x86 lider av mye rart pga siden 30-årige arv. Så.... det kan presses en vis bit, men på et eller annet ounkt vil det stoppe, på det punktet blir å hive mer kjerner på saken direkte latterlig. Ikke glem at x86 kommer til å leve lenge Håper skrivebordsmarkedet stanser på 6 eller 8 tråder, å få fart på trådene er bedre en å hive flere og flere og flere kjerner på problemet. Lenke til kommentar
BadCat Skrevet 4. november 2010 Del Skrevet 4. november 2010 Fordi Opteronen var en fattigmannsløsning som jeg hadde mens andre hadde 2-kjerner. 980x er omtrent dobbelt av hva programmer trenger i dag hvis man ser realistisk på det, da er det heller ikke utdatert om 5 år. Hvis det hadde vært en 2-kjerne hadde Opteronen vært mer aktuell. Jeg trenger ikke 20-kjerner privat. Multikjerne og SSD har vært etterlengtet i mange år. Når det først er kommet kan det ta 10 år før neste vending. Om det så kommer prosessor meg 100 kjerner så har det ikke noe for seg dersom man trenger 4-8. Om SSD blir 10 ganger raskere er det diminishing returns i forhold til de 2-3 første generasjonene. Om det kommer 1 gigabit bredbånd trenger jeg fortsatt ikke mer enn 8 megabit for å streame video. Før var jeg lei meg for at hardwaren ikke strakk til. Jeg må virkelig grave etter argumenter for å erstatte den PCen jeg har nå. Det må være første gang noen sinne at at jeg har en PC jeg er helt fornøyd med. Jeg skal riktignok ha meg et nytt lydkort, men det har vært planlagt lenge. Jeg har ventet ventet på at eksisterende PCI-kort skulle komme i oppdaterte PCI-E versjoner, noe som skjedde så nylig at jeg ikke har kjøpt det ennå. "Det er bortkastet å bytte ut det man har hvis man ikke ergrer seg og det fortsatt gjør nytten." Lenke til kommentar
Gjest Slettet+3165 Skrevet 4. november 2010 Del Skrevet 4. november 2010 Vett selvfølgelig at flere kjerner bruker mer strøm og generer varme. Når jeg sier at jeg tror det ville være langt flere kjerner om 4-5 år, så går jeg jo selvfølgelig ut ifra at resten av prosessor arkitekturen følger etter, kanskje vil CPUene være på 20nm eller mindre, og det vil jo selvfølgelig kompensere for at strømforbruket slik at det ikke blir så høyt som det ville vært på 32nm f.eks. Dette emnet kan uansett diskuteres i evigheter, og ingenting er faktisk bevist før om 4-5 år til :-) Lenke til kommentar
BadCat Skrevet 4. november 2010 Del Skrevet 4. november 2010 (endret) Jeg har lite tro på at det skal skje noe fantastisk innenfor få år. Det er vanskelig å finne opp hjulet to ganger. 1995: Pentium blir mainstream samtidig som vi får Windows 95. 1996: Dedikerte 3D-kort blir tilgjengelig. 1997: Optisk lagring får folkelige priser. 1998-2001: Bredbånd blir aktuelt, men mange har fortsatt bare ISDN/modem. 2005/2006: flerkjernede prosessorer. 2007-2010: SSD lanseres og blir moden. I tillegg er det små fremsskritt som dobbelkanals-minne, minnepinner, USB, firewire, optisk mus, osv, men dette er som regel bare forbedringer av eksisterende produkter. Endret 4. november 2010 av BadCat Lenke til kommentar
GullLars Skrevet 4. november 2010 Del Skrevet 4. november 2010 IT-henrik, som et kjapt motargument mot en eksplosjon av prosessorkjerner henviser jeg til Amdahl: Amdahls lov I løpet av 2015-2018 er større arkitekturmessige forandringer, som å forkaste deler av/hele x86 mer realistisk enn 32 kjerne prosessorer (for forbrukere i alle fall). Lenke til kommentar
Simen1 Skrevet 5. november 2010 Del Skrevet 5. november 2010 (endret) x86 vil nok bestå som legacy kompatibilitet, gjerne som en egen modul på prosessorene i 2020. Men hovedarkitekturen vil nok være annerledes og ikke ensartet. Det vil nok være en eller annen form for fet kjerne pluss ørten enkle små kjerner. Muligens også ulike spesialmoduler for spesialarbeid som ikke passer godt med de andre kjernene. Cell var en av de første med noe sånt. Intel og AMDs prosessorer med x86-kjerner + ørten små shadere er også noe sånt. Men konseptet er langt fra ferdig utviklet. Endret 5. november 2010 av Simen1 Lenke til kommentar
Anders Jensen Skrevet 5. november 2010 Del Skrevet 5. november 2010 (endret) IT-henrik, som et kjapt motargument mot en eksplosjon av prosessorkjerner henviser jeg til Amdahl: Amdahls lov I løpet av 2015-2018 er større arkitekturmessige forandringer, som å forkaste deler av/hele x86 mer realistisk enn 32 kjerne prosessorer (for forbrukere i alle fall). Om det er mer realistisk å skrote x86 enn at vi får 32 kjerner x86 skal jeg ikke ha sagt for sikkert, men det er jo lov å håpe. Amdahls lov vil helt klart sette store begrensninger for hvor nyttig det vil være med mange kjerner, sammtidig er det riktig som IT-Henrik sier at et økt antall kjerner ikke behøver å medføre økt strømforbruk i forhold til dagens løsninger siden fremskritt innen CMOS prosessen vil absorbere denne effekten. Faktisk er det sånn at en får teoretisk sett gjort mer arbeid per watt med mange små kjerner enn med få store. Problemet er at mange programmer har helt fundamentale serielle koblinger som gjør at Amdahl's lov kommer inn i bildet. Amdahls lov er faktisk litt i overkant optimistisk også da den ikke tar hensyn til overhead fra kommunikasjon. Det er faktisk ikke uvanlig at svært serielle problemer får dårligere ytelse ettersom en øker antall kjerner forbi en viss grense. For noen programmer kan denne grensen intreffe allerede ved 4-8 kjerner. Nå snakker jeg utelukkende om programmer som er spesielt skrevet for å utnytte et vilkårlig antall kjerner. for programmer som er låst til f.eks 1 eller 2 simultane tråder så vil jo ikke dette være et tema siden de overskytende kjernene kun vil stå ubrukt og ikke gjøre noe fra eller til. Forøvrig enig med Simen1. I fremtiden vil en miks av store og små kjerner antagelig bli poppulært. Støtte for x86 er muligens viktig for noen, men slik jeg ser det blir vi mindre avhengige av x86 for hvert år som går. Se bare hvor lekende lett ARM kom på markedet og nå står MIPS, som er et 10x bedre pad/netbook alternativ en ARM, å banker på døra også. Om 4-5 år er vi antagelig 10 ganger mer avhengige av webkit enn noen form for ISA (instruction sett architecture). Endret 5. november 2010 av Anders Jensen Lenke til kommentar
Gjest Slettet+3165 Skrevet 5. november 2010 Del Skrevet 5. november 2010 Bruken av 20 kjerner ++ kan jeg si meg enig i at neppe blir nødvendig til hjemmebruk med det første. Men skulle gjerne hatt 20 kjerner på en ESXi-server som jeg kunne ha fordelt rundt Lenke til kommentar
BadCat Skrevet 5. november 2010 Del Skrevet 5. november 2010 32 kjerner er høyst realistisk. Selv World of Warcraft kan adressere 32 kjerner Lenke til kommentar
Gjest Slettet+3165 Skrevet 5. november 2010 Del Skrevet 5. november 2010 32 kjerner er høyst realistisk. Selv World of Warcraft kan adressere 32 kjerner Med mod i den ene konfig fila eller? Lenke til kommentar
Theo343 Skrevet 5. november 2010 Del Skrevet 5. november 2010 (endret) Veldig mange x86 kjerner er sikkert mulig både ift hardware design og utnyttelse i OS, men hvorvidt det er hensiktsmessig og lønnsomt er noe annet. Nå får man jo ganske mange kjerner totalt sett allerede i eks. 8 sokkel systemer. 8x6=? Men jeg heller mer mot simen sin tankegang med en stor fet kjerne, noen spesialiserte kjerner og mange småkjerner. Denne tankegangen minner meg også litt om GPUer i dag. Endret 5. november 2010 av Theo343 Lenke til kommentar
Malvado Skrevet 5. november 2010 Del Skrevet 5. november 2010 Enig med Simen1 og Theo343 her, fremtidens Cpu'er kommer nok til å være på en måte hybrider av det vi har i dag med mange spesialiserte funksjoner. Tviler dog på at Gpu'er kommer til å forsvinne med det første, spesielt om 3D virkelig tar av (da tenker jeg ikke på 3d tv men 3d holo). Lenke til kommentar
Anders Jensen Skrevet 5. november 2010 Del Skrevet 5. november 2010 (endret) Veldig mange x86 kjerner er sikkert mulig både ift hardware design og utnyttelse i OS, men hvorvidt det er hensiktsmessig og lønnsomt er noe annet. Nå får man jo ganske mange kjerner totalt sett allerede i eks. 8 sokkel systemer. 8x6=? Men jeg heller mer mot simen sin tankegang med en stor fet kjerne, noen spesialiserte kjerner og mange småkjerner. Denne tankegangen minner meg også litt om GPUer i dag. Intel sine største x86 servere leverer 8s*8c=64 og AMD sine ligger vel på 4s*12c=48, eller er de oppe på 8s*12c? Finnes også større maskiner med opp til 4096 kjerner fordelt på halvparten så mange sokler. Ellers er jo clustere koblet med Infiniband så tett koblet at det overgår en del eldre cache coherent interconnect en annser som én maskin. Når det gjelder antallet typer kjerner så skal en ikke undervurdere kostnaden per design. En skal heller ikke undervurdere kompleksiteten i å støtte hybride løsninger og heller ikke overvurdere nytten av mange forskjellige typer i samme maskin. Ytelse måles på to fundamentale måter; throughput og responstid, da er det naturlig å lage ett design for hver av de to typene ytelse. Det resulterer typisk i et sett med fete kjerner og en enorm haug med tynne kjerner. Videre er minnehierarkiet minst like viktig som kjernene og det mest naturlige er vel å gå for delt cache coherent minne for de fete kernene og flere dedikerte minneområder for de tynne kjernene. Dette er forøvrig dagens modell med CPU+GPU, men en kan vel se for seg at over tid vil disse integreres på samme chip og kanskje kjøre et felles ISA. Hvis det er en spesialfunksjon en virkelig trenger i tillegg til dette så er det CAM (content adressable memory) for rask søking i data f.eks til bruk for håndtering av routing internt på virtualiserte servere og muligens noe hardwired matrisemultiplisering for grafikk, men jeg tror sistnevnte vil bli mest effektivt på tynne kjerner over tid. Endret 5. november 2010 av Anders Jensen Lenke til kommentar
Theo343 Skrevet 5. november 2010 Del Skrevet 5. november 2010 Var akkurat det jeg tenkte på AJ, vi har jo godt over 32 kjerner på et hovedkort allerede i dag . Lenke til kommentar
GullLars Skrevet 5. november 2010 Del Skrevet 5. november 2010 For å klarifisere, når jeg sa jeg trodde det var mer realistisk å bevege seg vekk fra x86 enn å ha 32(+) kjerner mente jeg for forbrukere, og på èn die/sokkel. For servere, workstation og cluster oppsett er situasjonen en annen. Lenke til kommentar
Bulletus Skrevet 5. november 2010 Del Skrevet 5. november 2010 Nok svada om cpuer nå, kom dere tilbake til 580gtx som vi alle gleder oss til Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå