Simen1 Skrevet 22. oktober 2009 Del Skrevet 22. oktober 2009 Prosessorteknologien kommer nok til å forbedres jevnt og trutt i maaange år fremover. Men akkurat lysprosessorer og 3 atomer per transistor tror jeg er både urealistisk og en uønsket retning. Det jeg tror vil gjøre størst fremskritt det neste tiåret er: - Først sammensmelting av CPU og GPU - Utvidelse av det sammensmeltede konseptet til flere kjernetyper - Integrering av DRAM eller lignende teknologi på prosessoren - Fiberoptisk kobling mellom prosessor, brikkesett (og nettverk i servere, ikke hjemme) - Økt bruk andre instruksjonssett enn x86-systemet (men fortsatt x86-kompatibilitet) - Langt raskere lagringsmedia og kobling til prosessoren - Redusert effektbruk - Redusert pris - En enorm utvikling av hvordan vi bruker internett (programvare) Lenke til kommentar
Hugo_Hardnuts Skrevet 24. oktober 2009 Del Skrevet 24. oktober 2009 Det vi ser er at to slike kort blir samlet hakket varmere ett et enkelt kort. Det er bare å forvente når to massive kort blir sittende med få centimeters avstand. En av de to viftene blir i crossfire betydelig blokkert ved innsugningspunktet. De to kortene står ikke langt fra hverandre, noe som ikke bare tvinger viften til å jobbe et lite hakk hardere. Det oppstår også litt ekstra lyd i form av gjengklang og refleksjoner. Dette er etter min mening en svakhet ved layouten på en rekke X58-kort. Det ser ut til at produsentene pakker flest mulig PCI-Ex16 spor på kortene for å kunne skryte på seg støtte for Tri-SLI og CrossfireX, uten å tenke over hvordan dette vil fungere i praksis med dual-slot kjølere Lenke til kommentar
War Skrevet 24. oktober 2009 Del Skrevet 24. oktober 2009 Fiberoptisk kobling mellom prosessor, brikkesett (og nettverk i servere, ikke hjemme) Hvorfor ikke allerede, høres ikke dyrt ut en gang. Lenke til kommentar
Simen1 Skrevet 25. oktober 2009 Del Skrevet 25. oktober 2009 War: Per i dag kan man enten velge mellom for dyrt eller for dårlig båndbredde og latency. Lasere og mottagere ligger i dag som separate brikker på hovedkortet. Da mister man mye av gevinsten. Det jobbes med å implementere lasere og mottagere direkte på prosessorer, men det er for dyrt og for tidlig for masseproduksjon. Men det kommer (trolig). Lenke til kommentar
Blazer Skrevet 25. oktober 2009 Del Skrevet 25. oktober 2009 (endret) kan noen fortelle meg hvorfor radeon 5870 gjør det mye dårligere i crysis nå en når de testet det kun single ved lansering ? http://www.hardware.no/artikler/asus_radeon_hd5870/72140/5 http://www.hardware.no/artikler/radeon_hd_...ossfire/72526/5 Endret 25. oktober 2009 av Blazer Lenke til kommentar
Hugo_Hardnuts Skrevet 25. oktober 2009 Del Skrevet 25. oktober 2009 Er ikke alle spill som liker Crossfire/SLI så godt, så derfor kan man faktisk få dårligere ytelse med flere kort i noen spill. Mulig dette er forklaringen. Lenke til kommentar
Blazer Skrevet 26. oktober 2009 Del Skrevet 26. oktober 2009 tenge på single kortet i crossfire testen. samme kort. samme spill. men i den første testen så yter det jo mye bedre. se linkene Lenke til kommentar
Hugo_Hardnuts Skrevet 26. oktober 2009 Del Skrevet 26. oktober 2009 Oops, jeg som ikke kikket godt nok på grafene. Trodde du siktet til at to kort i CF også gjør det noe dårligere enn ett kort alene i den første testen. Henger ikke helt på greip nei... Er det brukt samme drivere? Bare meg som ikke klarer å finne noe info om dette i testene? Lenke til kommentar
Blazer Skrevet 27. oktober 2009 Del Skrevet 27. oktober 2009 finner ikke info om drivere heller. men antar at de har brukt samme driver. hvis det er nyere driver i den nyere testen, så er jo den dårligere en den forje driveren. jeg fikk helt paff når jeg så hvor bra hd 5870 gjorde det på very high i crysis i den første testen. men i den andre testen så er det jo ikke no særlig bedre en gtx 285. kansje noen fra hw.no kan gi et svar ? dere som har testet kansje ? Lenke til kommentar
Malvado Skrevet 27. oktober 2009 Del Skrevet 27. oktober 2009 Det jeg tror vil gjøre størst fremskritt det neste tiåret er:- Først sammensmelting av CPU og GPU Personlig er jeg litt i tvil om dette kommer til å være en suksess med det første, i alle fall er det en lang vei å gå. Før en Cpu kan fullstendig ta over arbeidslasten til gpu så må man utvikle teknologien såpass mye at sammensmeltingen av gpu og cpu ikke blir et steg tilbake. Dagens gpu'er har jo et effektforbruk som nesten topper 300 Watt og ønsker man å smelte disse sammen med en cpu så vil man jo ha til sammen opp mot 450W til 500W effekt som man må håndteres. Selvsagt en langt mindre nm prossses vil nok sørge for at man bruker mindre effekt , Nvidia greide jo å gå fra 65 nm til 55nm med en reduksjon fra 236W til 183W (22%) men det betyr også at for å få til den samme ytelsen som man har i dag på en gpu så må man nesten ned til minst 32nm / 16nm ytelse for å få en varmeutvikling som er håndterbar. Jeg tror heller at det er godt mulig at vi går heller mot løsninger der man fokuserer på raskerere tilkoblinger mellom komponentene så at man minimerer eventuelle flaskehalser og slipper å måtte fokusere på en enkelt enhet. Lenke til kommentar
Uglegutt Skrevet 27. oktober 2009 Del Skrevet 27. oktober 2009 snip Hvis du skuer litt lengre enn nesen din vil du kansje legge merke til at 90% av markedet bruker onboard løsninger, der cpu+gpu i samme brikke vil være genialt, både mtp pris og batterilevetid/strømforbruk. Tviler på at de vil angripe entusiast markedet først for å si det slik.. (no offence ) Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå