Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Intel i7 ny vs gammel, hva er forskjell?


eUnaas

Anbefalte innlegg

Videoannonse
Annonse

Men hvorfor er strømforbruket relevant i en stasjonær pc? Den watten utgjør småpenger selv i det lange løp. 

Mindre varme, mindre støy og mulighet for høyere overklokk.

 

 

Ikke nødvendigvis. Det er ikke så enkelt som det.

 

Gode argumenter for å ha lavere TDP på en CPU, slik jeg ser det er:

1. Har man enormt mange maskiner så vil man se det på regningen

2. I laptop'er kan det være kjekt for at batteriet skal vare lenger.

 

Har man 1 stasjonær maskin så betyr TDP ikke en dritt spør du meg. Jeg har ingen problemer med å kjøle en 140W 5960X. Bråker gjør det heller ikke og overklokking går fint.

Endret av Kyrre S.
  • Liker 1
Lenke til kommentar

Men hvorfor er strømforbruket relevant i en stasjonær pc? Den watten utgjør småpenger selv i det lange løp. 

 

For entusiaster betyr det lite, men likevel, alle monner drar. Er det ikke greit å spare litt på strømregningen også da, på toppen av resten?

Lenke til kommentar

 

Men hvorfor er strømforbruket relevant i en stasjonær pc? Den watten utgjør småpenger selv i det lange løp.

For entusiaster betyr det lite, men likevel, alle monner drar. Er det ikke greit å spare litt på strømregningen også da, på toppen av resten?

Sparer nok mer på å ikke oppgradere cpu :p
  • Liker 1
Lenke til kommentar

Da går jeg tilbake til mitt originale poeng: Det har ikke skjedd mye på 6år! Tilbake til gamledager (1990 og 2000 tallet) var utviklingen noe helt annet. Man var ikke da usikker på om man fikk mer ytelse for pengene etter 6år.

 

Men det er kanskje noe vi må regne med? At utviklingen har stagnert av at teknologien har møtt fysiske begrensninger? Eller har den stagnert fordi utviklingen har fokusert på strømgjerrige bærbare prosessorer? 

Lenke til kommentar

Da går jeg tilbake til mitt originale poeng: Det har ikke skjedd mye på 6år! Tilbake til gamledager (1990 og 2000 tallet) var utviklingen noe helt annet. Man var ikke da usikker på om man fikk mer ytelse for pengene etter 6år.

 

Men det er kanskje noe vi må regne med? At utviklingen har stagnert av at teknologien har møtt fysiske begrensninger? Eller har den stagnert fordi utviklingen har fokusert på strømgjerrige bærbare prosessorer?

Prosessorer er, som man har prøvd å forklare her i tråden, langt mer enn MHz.

 

Ytelsestest

Lenke til kommentar

 

Hva slags spill spiller du? er det CPU bound spill så vil du se stor forskjell, ingen tvil om det. Ikke se på GHZ, den tiden er nok over for lengst.

 

Jeg spiller ikke. Men driver en del med 3D rending og filmredigering. 

 

Da vil du få en god del mer ut av en nyere prosessor enn under generell bruk, dette fordi det har vært stort fokus på å øke mulighetene til å behandle store datamengder på nyere prosessorer og å legge til nye instruksjonssett som tilrettelegger for økt ytelse i spesialiserte områder (deriblant rendering og enkoding.)

 

Det er under generell ytelse og i programmer som er uforutsigbare at ytelsen har stagnert hardest, rett og slett fordi alle "lavthengende frukter" har blitt brukt opp for over ti år siden. Det andre problemet er at vi fortsatt bruker en prosessorarkitektur som ble designet for over 40 år siden, og det er en del rester og svakheter med denne som er vanskelig å omgå.

 

Da går jeg tilbake til mitt originale poeng: Det har ikke skjedd mye på 6år! Tilbake til gamledager (1990 og 2000 tallet) var utviklingen noe helt annet. Man var ikke da usikker på om man fikk mer ytelse for pengene etter 6år.

 

Men det er kanskje noe vi må regne med? At utviklingen har stagnert av at teknologien har møtt fysiske begrensninger? Eller har den stagnert fordi utviklingen har fokusert på strømgjerrige bærbare prosessorer? 

http://www.anandtech.com/show/7003/the-haswell-review-intel-core-i74770k-i54560k-tested/6

Denne testen viser forskjellen på en i7-965X (Intels toppmodell under LGA1366-tiden) og en i7-4770k, der ser du at ytelsen har økt med omlag 50% på de fleste områder til tross for at klokkefrekvensen bar har økt med 10%

 

Det at utviklingen stagnerer kommer av flere ting:

Moores lov har stoppet for lengst, selv Intel måtte gi tapt for to år siden. AMD og Nvidia bruker fortsatt samme produksjonsteknikk for skjermkort i dag som i 2012, og for de omlag 350 dollarene man betaler i dag for 5.2 milliarder transistorer fikk man tilbake i 2010 hele 3 milliarder transistorer.

Fordi transistorer i dag ikke har samme verdifallet per år er det desto viktigere å bruke transistorene effektivt, som øker utviklingskostnadene ytterligere.

Det har blitt svært vanskelig å øke ytelsen per kjerne i dag, den "enkleste" måten er å øke klokkefrekvensen som er begrenset av varmeproduksjon fordi halvlederkretser basert på silisium ikke lar seg skru av og på stort oftere enn 4 500 000 000 ganger i sekundet under normale forhold.

Flere kjerner kan gi store forbedringer med forutsigbart arbeid som videoredigering, offline rendering, kryptering, og annen tallknusing, men det er fortsatt begrenset til det programmet klarer å nyttegjøre seg. Dess mer interaktiv programvaren er, dess vanskeligere er det å få utnyttet flere kjerner.

For de aller fleste er prosessorytelsen under weblesning, tekstbehandling, og lasting av applikasjoner rask nok med dagens prosessorer, de vil bare ha den i et mer bærbart format.

Lenke til kommentar

Da går jeg tilbake til mitt originale poeng: Det har ikke skjedd mye på 6år! Tilbake til gamledager (1990 og 2000 tallet) var utviklingen noe helt annet. Man var ikke da usikker på om man fikk mer ytelse for pengene etter 6år.

 

Men det er kanskje noe vi må regne med? At utviklingen har stagnert av at teknologien har møtt fysiske begrensninger? Eller har den stagnert fordi utviklingen har fokusert på strømgjerrige bærbare prosessorer? 

 

Jeg er enig med deg i at det har stagnert. Mye pga strøm, ja. Du må huske at forbrukerkomponenter og industrikomponenter ofte utvikles sammen (i mangel på bedre ord). Dette har ført til at en serverpark fra 1999 som kan knuse X-antall tall bruker sikkert mer enn dobbelt så mye som en tilsvarende serverpark i dag, orker ikke finne tall. Så å gå fra 1 GW til 500MW har litt å si. En endring som er ubetydelig for mannen i gata kan bety enormt mye andre steder ;)

 

Edit; Fysiske begrensinger på maskinvarefronten er litt spesiellt da man kan lage HK med flere CPU'er eller lage fysisk større CPU'er. Greia er at det ikke er noe vits å presse ut ting når det ikke trengs, det er bedre å ta seg god tid å gjøre ting riktig. Ville du betalt 4 ganger så mye for en dobbelt så rask PC der halvparten av kraften ikke ble brukt?

Endret av Belphegor
Lenke til kommentar

Da går jeg tilbake til mitt originale poeng: Det har ikke skjedd mye på 6år! Tilbake til gamledager (1990 og 2000 tallet) var utviklingen noe helt annet. Man var ikke da usikker på om man fikk mer ytelse for pengene etter 6år.

 

Men det er kanskje noe vi må regne med? At utviklingen har stagnert av at teknologien har møtt fysiske begrensninger? Eller har den stagnert fordi utviklingen har fokusert på strømgjerrige bærbare prosessorer? 

 

Utviklingen er ikkje helt død ser det ut til :

 

http--www.gamegpu.ru-images-stories-Test

 

http--www.gamegpu.ru-images-stories-Test

 

Gammel cpu? Nei takk!'

Stock cpuhastighet? Nei takk! :D

Endret av Nizzen
Lenke til kommentar

 

 

Da vil du få en god del mer ut av en nyere prosessor enn under generell bruk, dette fordi det har vært stort fokus på å øke mulighetene til å behandle store datamengder på nyere prosessorer og å legge til nye instruksjonssett som tilrettelegger for økt ytelse i spesialiserte områder (deriblant rendering og enkoding.)

 

Det er under generell ytelse og i programmer som er uforutsigbare at ytelsen har stagnert hardest, rett og slett fordi alle "lavthengende frukter" har blitt brukt opp for over ti år siden. Det andre problemet er at vi fortsatt bruker en prosessorarkitektur som ble designet for over 40 år siden, og det er en del rester og svakheter med denne som er vanskelig å omgå.

 

 

 

 

 

 

Husker at på 90-tallet så prøvde noen seg med RISC-basert arkitektur, men det fikk aldri riktig godt fotfeste på kontorpulten:

 

https://en.wikipedia.org/wiki/DEC_Alpha

 

 

 

https://en.wikipedia.org/wiki/DEC_Alpha#Model_history

 

 

 

The Alpha architecture was sold, along with most parts of DEC, to Compaq in 1998. Compaq, already an Intel customer, decided to phase out Alpha in favor of the forthcoming Hewlett-Packard/Intel Itanium architecture, and sold all Alpha intellectual property to Intel in 2001, effectively killing the product. Hewlett-Packard purchased Compaq later that same year, continuing development of the existing product line until 2004, and promising to continue selling Alpha-based systems, largely to the existing customer base, until October 2006 (later extended to April 2007).[4]
At that time (as it is now), the microchip industry was dominated by automated design and layout tools. The chip designers at Digital continued pursuing sophisticated manual circuit design in order to deal with the overly complex VAX architecture. The Alpha chips showed that manual circuit design applied to a simpler, cleaner architecture allowed for much higher operating frequencies than those that were possible with the more automated design systems. These chips caused a renaissance of custom circuit design within the microprocessor design community. 
The first few generations of the Alpha chips were some of the most innovative of their time. The first version, the Alpha 21064 or EV4, was the first CMOS microprocessor whose operating frequency rivalled higher-poweredECL minicomputers and mainframes. The second, 21164 or EV5, was the first microprocessor to place a large secondary cache on chip. The third, 21264 or EV6, was the first microprocessor to combine both high operating frequency and the more complicated out-of-order execution microarchitecture. The 21364 or EV7 was the first high performance processor to have an on-chip memory controller. The unproduced 21464 or EV8 would have been the first to include simultaneous multithreading, but this version was canceled after the sale of DEC to Compaq. The Tarantula research project, which most likely would have been called EV9, would have been the first Alpha processor to feature a vector unit
The Alpha has a 64-bit linear virtual address space with no memory segmentation. Implementations can implement a smaller virtual address space with a minimum size of 43 bits. Although the unused bits were not implemented in hardware such as TLBs, the architecture required implementations to check whether they are zero to ensure software compatibility with implementations with a larger (or full) virtual address space.
At the time of its announcement, Alpha was heralded as an architecture for the next 25 years. While this was not to be, Alpha has nevertheless had a reasonably long life. The first version, the Alpha 21064 (otherwise known as the EV4) was introduced in November 1992 running at up to 192 MHz; a slight shrink of the die (the EV4S, shrunk from 0.75 µm to 0.675 µm) ran at 200 MHz a few months later. The 64-bit processor was a superpipelined and superscalar design, like other RISC designs, but nevertheless outperformed them all and DEC touted it as the world's fastest processor. Careful attention to circuit design, a hallmark of the Hudson design team, like a huge centralized clock circuitry, allowed them to run the CPU at higher speeds, even though the microarchitecture was fairly similar to other RISC chips. In comparison, the less expensive Intel Pentium ran at 66 MHz when it was launched the following spring.
Alpha was also implemented in the Piranha, a research prototype developed by Compaq's Corporate Research and Nonstop Hardware Development groups at the Western Research Laboratory and Systems Research Center. Piranha was a multicore design fortransaction processing workloads that contained eight simple cores. It was described at the 27th Annual International Symposium on Computer Architecture in June 2000
Endret av G
Lenke til kommentar

Husker at på 90-tallet så prøvde noen seg med RISC-basert arkitektur, men det fikk aldri riktig godt fotfeste på kontorpulten:

 

https://en.wikipedia.org/wiki/DEC_Alpha

 

De fleste prosessorer i dag er teknisk sett RISC-prosessorer:

x86-prosessorer fra Intel og AMD dekoder de komplekse x86-operasjonene inn i flere små µOps, og utfører en og en operasjon på samlebåndsformat. Ved å konvertere over til µOps blir eksekveringsmaskinvaren enklere å konstruere: som fører til lavere strømforbruk, høyere klokkefrekvenser, samt høyere utnyttelse av eksekveringsmaskinvaren. Derfor var Pentium og Pentium Pro

 

ARM-prosessorer finner vi i de fleste mobiltelefoner, nettbrett, biler, TV-er, og andre ting som trenger prosessorer som ikke er avhengig av legacy-support, og ARM er i aller høyeste grad RISC.

Lenke til kommentar

Skulle ønske at Intel kunne produsert en ordentlig kraftig ARM-basert CPU for vanlige folk, eller en alternativ mer effektiv arkitektur eventuellt. Jeg trenger ikke noe annet for å åpne HTML, RTF, DOCX, XLSX, ODF, PDF med mere. Alt slikt er jo ferdig definerte, og burde være enkelt for et hvilket som helst OS å åpne. Etterhvert så vil jo spill komme til "nye" arkitekturer også. Man har eksempler på det. F.eks. IBM Cell CPU i Playstation 3, selv om det var skreddersøm for konsollspilling da.

 

Legacy kan vel emuleres også til en viss grad?

Endret av G
Lenke til kommentar

En anbefaling jeg fikk ved diskusjon om 2-way SLI med GeForce GTX 980 Ti:

LGA2011-3 + Intel Core i7 5930K (5960x var for dyrt for min lommebok).

 

Til tross for at den er 2 generasjoner bak Skylake som jeg først tenkte å bruke

LGA1151 + Intel Core i7 6700K

 

Jeg skjønner at LGA2011-3 er high end, men er den fortsatt det?

Hashwell => Broadwell => Skylake

https://www.pugetsystems.com/labs/articles/Haswell-vs-Skylake-S-i7-4790K-vs-i7-6700K-641/

 

Akkurat når jeg hadde skrevet dette kom jeg over følgende

http://arstechnica.com/gadgets/2015/08/intel-skylake-core-i7-6700k-reviewed/

One aspect of Skylake processors that hasn’t changed is the number of PCI Express 3.0 lanes, which is still set at 16. This allows for a single PCIe graphics card to operate at x16 speeds, or a pair in SLI or CrossFire to operate at x8. For more graphics lanes, you’ll need a Haswell-E processor (the top-end 5960X has a grand total of 40 PCIe lanes)—although moving to the X99 chipset is of questionable value if it’s just for SLI or CrossFire use.

Endret av DJViking
Lenke til kommentar

Etter å lest gjennom flere sammenligninger mellom  i7-6700K og i7-5930K ser det ut som Skylake kommer bedre ut. Likevel jeg ble anbefalt å gå for LGA2011-3 for et SLI oppsett, men Skylake skal fint kunne brukes til 2-way SLI. Problemet blir vel mer dersom man skal bruke 3-way eller 4-way SLI og da må man vel bruke LGA2011-3.

 

http://cpuboss.com/cpus/Intel-Core-i7-6700K-vs-Intel-Core-i7-5930K

http://cpu.userbenchmark.com/Compare/Intel-Core-i7-6700K-vs-Intel-Core-i7-5930K/3502vs2578

 

Den siste sammenligningen jeg kom over viste likevel at i7-5930K gjorde det bedre i Spill, da spesielt XCOM2 som er årsaken til at jeg skal oppgradere.

http://www.game-debate.com/cpu/index.php?pid=2320&pid2=2117&compare=core-i7-6700k-4-core-4-0ghz-vs-core-i7-5930k-6-core-3-5ghz

 

 

In terms of overall gaming performance, the Intel Core i7-5930K 6-Core 3.5GHz is massively better than the Intel Core i7-6700K 4-Core 4.0GHz when it comes to running the latest games
Lenke til kommentar

Skylake kommer bedre ut fordi det har en høyere frekvens ifra fabrikk, noe som veldig enkelt kan gjøres med 5930k også.

Forskjellen er at du får 50% flere kjerner som yter ~5% dårligere.

 

P.S. kjøp ikke 5930k, det er bortkasta penger når du kan kjøpe 5820k. 24 PCI-E lanes er mer enn nok.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...