ATWindsor Skrevet 5. august 2015 Del Skrevet 5. august 2015 Synes ikke dette var mye å rope hurra for. Ser ut til at min 2600k blir værende en stund enda. Alle som har en relativt grei firekjerne av SB eller nyere på 3.3+ GHz har svært lite ytelsemessig å hente på å oppgradere til en ny mid-range-CPU av Skylake. Men dette er hva jeg har sagt lenge, hvorfor er folk så begeistret for Skylake når det vil utgjøre svært liten forskjell? De som ønsker bedre ytelse kan få det allerede i dag i form av Haswell-E. Socket 115x har vært relativt stagnert ytelsemessig siden SB, det er bortkastet å oppgradere SB til Skylake. Hvem er det som er så ekstremt begeistret for skylake på desktop? AtW Det har vært mye snakk på forumer om folk som utsetter kjøp til Skylake. Nå har plutselig pipen fått en annen lyd, og flere av oss så det komme... Ok, I guess, synes ikke det nødvendigvis er noe dårlig råd, spørs hvor lang tid det er snakk om å vente, og det kommer også et nytt chipset. AtW Lenke til kommentar
HKS Skrevet 5. august 2015 Del Skrevet 5. august 2015 Det har vært mye snakk på forumer om folk som utsetter kjøp til Skylake. Nå har plutselig pipen fått en annen lyd, og flere av oss så det komme...Jeg var en av dem som anbefalte folk å vente på Skylake. Man skulle håpe og tro at en ny arkitektur fra Intel på 14nm ville gi mer enn det vi nå ser da. Ikke noe astronomisk mer, men mer like så. De som da ventet til nå kan jo iallefall trøste seg med at Haswell-E og X99 er et godt valg. Har en følelse av at 5820K kommer til å selge mer fremover... Det kommer nok til å bli mer klart hvorfor vi ikke ser noe mer når Intel offentliggjør detaljene rundt arkitekturen. IDF begynner tirsdag 18. august. Denne CPU-lanseringen med at de slipper opp for benchmarkes for de forteller om arkitekturen er egentlig ganske idiotisk spør du meg. Planen var egentlig en IDF-lansering før noen PR-folk mente at dette var en god ide. For de fleste her som er godt over middels interesserte så er X99 og 5820K/5930K et meget godt valg. Lenke til kommentar
rosetta stoned Skrevet 5. august 2015 Del Skrevet 5. august 2015 Overall, Skylake is not an earth shattering leap in performance. In our IPC testing, with CPUs at 3 GHz, we saw a 5.7% increase in performance over a Haswell processor at the same clockspeed and ~ 25% gains over Sandy Bridge. http://www.anandtech.com/show/9483/intel-skylake-review-6700k-6600k-ddr4-ddr3-ipc-6th-generation/23 Så, det begynner å bli på tide å innse at tiden med store forbedringer fra generasjon til generasjon er slutt. Alle lavthengende fruktene for å optimere IPC på en x86 CPU er for lengst brukt opp. Økninger vil rett og slett koste for mye energi. I fare for å bryte NDA kan jeg si at Skylake er starten på en trend fra Intel hvor også de "store kjernene" fra Intel blir slik at man i fremtiden kan putte flere av de på en brikke. Legger man sammen 1+1 så kommer man også frem til at AMD også kommer til å gå denne veien med Zen. Skal man fortsette å skalere ytelsen slik man er vandt til så må man skrive progammer som i høyere grad bruker multithreading. Der det egner seg bør man også sørge for at programmene benytter seg av akseleratorer som for eksempel GPUer og vektorenhetene (AVX) på prosessoren. Edit: Presisering Uten å ha lest hele tråden, dette bør da være en grei tid å gå inn i mainstream-markedet (eller, heller; big-stream-markedet) for andre produsenter som klarer å krympe chiper/transistorer til noenlunde samme nivå (ja jeg innser mainstream pr. i dag er mobile prosessorer). Såvidt jeg kan forstå så bør vel Qalcomm og andre se litt på mulighetene. Eller på den andre siden, så bør vel en produsent som ikke tar så voldsomt hensyn til effektivitet kunne ha en grei 3dje plass i dette markedet, type texas instruments e.l. (hvis prosessorer blir utviklet av 3dje-part) Eller har vi muligens en total forandring i arkitektur i vente som gjør at effektivitet blir endret på en uventet måte? (Nå tenker jeg ikke kvantecomputere, men heller noe inn i mellom mtp at skjermkortet nå gjør andre ting enn hva vi trodde skulle skje for en 5-10 år siden). Mulig jeg er på jordet, men det er helt vanlig prosedyre. Lenke til kommentar
Knutgrus Skrevet 5. august 2015 Del Skrevet 5. august 2015 Var det ikke Skylake mange hauset opp som den større arkitekturforandringen på en god stund så vi kanskje kunne få sett et lite hopp i ytelse? 10% er jo godt innenfor hva jeg ser på som likegyldig mellom to generasjoner.. Nah, var det så hauset opp da? Var vel ikke noen stor arkitekturforandring. Bare ny ny produksjonsteknikk (14nm). Det var mange som jublet over det og hadde et lite håp om at den klokket noe helt vilt. 10 % er vel hva en forventer mellom to generasjoner nå til dags. Nye teknologier og et noe bedre integrert skjermkort (dog ikke godt nok), er vel ikke bra nok. Spesielt ikke kombinert med den dyre dållarn. Lenke til kommentar
Emancipate Skrevet 5. august 2015 Del Skrevet 5. august 2015 Uten å ha lest hele tråden, dette bør da være en grei tid å gå inn i mainstream-markedet (eller, heller; big-stream-markedet) for andre produsenter som klarer å krympe chiper/transistorer til noenlunde samme nivå (ja jeg innser mainstream pr. i dag er mobile prosessorer). Såvidt jeg kan forstå så bør vel Qalcomm og andre se litt på mulighetene. Eller på den andre siden, så bør vel en produsent som ikke tar så voldsomt hensyn til effektivitet kunne ha en grei 3dje plass i dette markedet, type texas instruments e.l. (hvis prosessorer blir utviklet av 3dje-part) To problemer: 1. Lisenser. AMD og Intel har en slags enighet, men ellers er det visst problemer med noen patenter i forhold til x86. 2. x86 er en utrolig komplisert og omfattende arkitektur. Konkurrenter kommer nok dermed heller til å satse på å lage raskere ARM-prosessorer. Problemet er at det er begrensning for hvor høy klokkehastighet disse også kan kjøre på, og fordi de gir mye mindre ytelse per klokke når de ikke igjen x86 med det første. Men det selges jo allerede chromebooks med ARM og Nvidia Tegra. Spørsmålet blir om Intel klarer å senke strømforbruket raskere enn ARM-produsentene klarer å øke ytelsen, og om Intel klarer å levere billig nok. Eller har vi muligens en total forandring i arkitektur i vente som gjør at effektivitet blir endret på en uventet måte? (Nå tenker jeg ikke kvantecomputere, men heller noe inn i mellom mtp at skjermkortet nå gjør andre ting enn hva vi trodde skulle skje for en 5-10 år siden). Mulig jeg er på jordet, men det er helt vanlig prosedyre.Nei. Det er to muligheter, der ingen funker tilfredsstillende. Den ene er at vi går mot flere kjerner istedenfor økt hastighet per kjerne. Den andre muligheten var noe som heter EPIC og Intel realiserte med Itanium-prosessorene. Det ble en EPIC failure. Man fikk rett og slett ikke tak i den ekstra ytelsen. Lenke til kommentar
HKS Skrevet 5. august 2015 Del Skrevet 5. august 2015 Uten å ha lest hele tråden, dette bør da være en grei tid å gå inn i mainstream-markedet (eller, heller; big-stream-markedet) for andre produsenter som klarer å krympe chiper/transistorer til noenlunde samme nivå (ja jeg innser mainstream pr. i dag er mobile prosessorer). Såvidt jeg kan forstå så bør vel Qalcomm og andre se litt på mulighetene. Eller på den andre siden, så bør vel en produsent som ikke tar så voldsomt hensyn til effektivitet kunne ha en grei 3dje plass i dette markedet, type texas instruments e.l. (hvis prosessorer blir utviklet av 3dje-part) Problemet her er x86 og lisenser. Hvis noen skal inn i x86 markedet så trenger de lisens fra Intel (og AMD). Så her er det nok AMD vi må satse på, eller eventuelt at noen kjøper AMD. Problemet er at det fremdeles er en stund til Zen kommer, og Zen kommer først til servere/workstation (der brenner det mest). Der snakker vi i beste fall høsten 2016, mer realistisk helt på slutten av året i 2016. Når det gjelder APU så kommer ikke Zen før i beste fall i begynnelsen av 2017, kanskje mer realistisk utover våren 2017. Kan håpe på at nye iterasjoner av ARM blir kraftigere slik at de spiser markedsandeler oppover. Det vil dessverre Windows være en brems, men Chromebooks og liknende produkter kan jo ta større markedsandeler. Kan håpe på at Apple pusher Intel mer, de har en av de raskeste ARMv8 arkitekturene i dag. Det hjelper heller ikke at Qualcomm gikk på en stor smell med overgangen fra 32-bit til 64-bit på ARM samtidig som at 20nm hos TSMC ikke har levert hva man håpet på. Eller har vi muligens en total forandring i arkitektur i vente som gjør at effektivitet blir endret på en uventet måte? (Nå tenker jeg ikke kvantecomputere, men heller noe inn i mellom mtp at skjermkortet nå gjør andre ting enn hva vi trodde skulle skje for en 5-10 år siden). Mulig jeg er på jordet, men det er helt vanlig prosedyre.Det er mange som håper at transistorer med grafen skal endre markedet. Ett av de fundamentale problemene er de som utvikler programmer og spill. I en årrekke har industrien blitt vant til at IPC skalerer bra på nye prosessorer, og at man halvhjertet kan bruke noen biblioteker som er multithreaded. industrien må bli flinkere til å tenke parallelt, og skrive kode slik at man kan bruke SIMD-enhetene på prosessoren, og også eventuelt i større grad avlaste prosessorene med å bruke parallelle arkitekturer (GPU). Hvis jeg skal spå Intel sin arkitektur om 10 år så tipper jeg vi har flere men mindre kompliserte kjerner. Forbedringene i IPC blir marginale. Kjernene kommer til å være bygd opp av færre transistorer. Minne og cache hierarkiet kommer til å være annerledes. En mainstream CPU vil kun ha HMC minne (Noe ala det samme som HBM bare optimert for CPU). High-end CPU'er vil nok fremdeles ha støtte for tradisjonell DRAM. All lagring kommer til å være PCI Express basert. Minne og cache hierarkiet er nok en ting Intel kommer til å ta tak i ganske kjapt, og uten å røpe for mye blir nok det et fokusområde for Kaby Bridge som er neste iterasjon for Intel. 1 Lenke til kommentar
Emancipate Skrevet 5. august 2015 Del Skrevet 5. august 2015 industrien må bli flinkere til å tenke paralleltDessverre er det rimelig mange ting som er iboende serielle, eller der synkroniseringen spiser opp fordelene ved flere tråder. Det er ikke bare et holdningsproblem, det er faktisk ikke alt som kan kjøres parallelt. Greit at Intel/AMD mener man trenger lisens, men trenger man egentlig lisens? Hva er det det er snakk om? De kan vel ikke patentere selve instruksjonssettet? Når går patentene ut? Lenke til kommentar
HKS Skrevet 5. august 2015 Del Skrevet 5. august 2015 industrien må bli flinkere til å tenke paralleltDessverre er det rimelig mange ting som er iboende serielle, eller der synkroniseringen spiser opp fordelene ved flere tråder. Det er ikke bare et holdningsproblem, det er faktisk ikke alt som kan kjøres parallelt. Greit at Intel/AMD mener man trenger lisens, men trenger man egentlig lisens? Hva er det det er snakk om? De kan vel ikke patentere selve instruksjonssettet? Når går patentene ut? Skal man implementere en high-performance x86 prosessor så trenger man lisens. Man må tilbake til 80486 før det blir 20 år og patentene går ut. Patentene er det flere som har lisens på, blant annet Nvidia. De har en krysslisenseringsavtale med Intel, hvor Intel bruker GPU patenter fra Nvidia mot at de har tilgang på alle Intel sine patenter. Avtalen sier eksplisitt at Nvidia ikke for lov til å lage en CPU som implementerer eller emulerer x86. Grunnen til at emulerer er eksplisitt nevnt er at Nvidia sin egen ARMv8 arkitektur (Denver) faktisk er designet for å kunne emulere x86, og den vil kunne gjøre det på ganske kort tid hvis ønskelig. Nå er uansett x86 et eldgammelt instruksjonssett med masse gammel bagasje som burde vært kastet. Så flere inkludert meg selv håper på at om 10 år så har ARM spist seg oppover, og PowerPC/MIPS og andre instruksjonsset har spist seg nedover. Lenke til kommentar
Emancipate Skrevet 5. august 2015 Del Skrevet 5. august 2015 Skal man implementere en high-performance x86 prosessor så trenger man lisens.Men konkret, på hva? Innmaten eller instruksjonssettet? Det kan da ikke vært mulig å patentere instruksjonene, og innmaten trenger vel ikke bruke Intel sine patenter? Lenke til kommentar
G Skrevet 5. august 2015 Del Skrevet 5. august 2015 (endret) 10%? Her var det ikke mye å hoppe i taket for... Var det ikke Skylake mange hauset opp som den større arkitekturforandringen på en god stund så vi kanskje kunne få sett et lite hopp i ytelse? 10% er jo godt innenfor hva jeg ser på som likegyldig mellom to generasjoner.. Og hvorfor er det fremdeles ikke mulig med mer enn 1x PCI-Express x16 på disse prosessorene? At man må opp på entusiastplattformen for å få PCI-Express x16 til 3-4x skjermkort er greit nok, men at man ikke skal klare 2x PCI-Express x16 på LGA1151 virker jo temmelig dødfødt? Det er tydelig at Intel holder det tilbake med overlegg.. Enig, det er for få lanes. Hadde også ønsket meg 10gbe LAN. AtW Er det garantert at "lanes"-begrensningen sitter i denne CPU'en? Enig 10 Gigabit LAN hadde vært fint. Men, går det ikke an å nyttegjøre seg Thunderbolt sin gode båndbredde, med en slags adapter da? Eller sette i et 10 Gigabit nettverkskort. Eller få på plass noe i OS'et som gjør Thunderbolt anvendelig som nettverkskort? Evt. et annet chipset, som legger 10 Gigabit nettverkskort der, og gir en slik kobbervariant av en nettverkskontakt på selve hovedkortet. Det skulle jo ikke mangle på båndbredde (bus) mellom CPU og Chipset. https://en.wikipedia.org/wiki/Thunderbolt_(interface)#Thunderbolt_3 Thunderbolt 3[edit]Compared to Thunderbolt 2, Intel's Thunderbolt 3 controller (codenamed Alpine Ridge) will double the bandwidth to 40 Gbit/s (5 GB/s), halve power consumption, and simultaneously drive two external 4K displays (or a single external 5K display) instead of just the single one current controllers can drive. Endret 5. august 2015 av G Lenke til kommentar
G Skrevet 5. august 2015 Del Skrevet 5. august 2015 (endret) Mens dagens DDR3 krever 1,5 V trenger ikke DDR4 mer enn 1,2 V, noe som vil komme deg til gode i form av mindre varmeutvikling.Det er vel watt som gir varmeutvikling, ikke volt? P = U * I Watt = Volt * Amper Volt kan på sett og vis dras med en analogi over på vanntrykk. Med mindre "trykk", og i strømsammenheng så kalles dette for spenning (som måles i Volt) så vil man kunne presse mindre strøm igjennom. Ergo vil man få desto lavere Watt som gir mindre varmeutvikling, gitt at man lar være å øke strømstyrken (Amper). Men jeg vil ikke si at Watt er synonymt med varmeutvikling, selv om varmeovner oppgis med en slik verdi målt i Watt. Motstand f.eks. gir grobunn for varme, og måles i ohm. Man har eksempelvis PSU å få til PC som har Platinum og enda høyere Titanium sertifisering. Slike PSU'er gir lite effekttap. Effekt = Watt i strømsammenheng. De to nevnte kategoriene PSU'er har ofte en virkningsgrad omkring 90 % og gjerne også høyere under ideelle forutsetninger. I et gitt system man ønsker å overklokke. Det vil si man har bestemt seg for hvilken hardware som er i bruk, så vil en økning av spenningen (Volt), tillate høyere frekvenser. Virkningen av å øke spenningen vil bli en høyere varmeutvikling. Så en lavere spenning ned fra 1,5 Volt til 1,2 Volt fordrer ingeniørkunst å få til for systemet som helhet. Det ser altså ut til at de har lykkes å senke spenningen på RAM-brikkene, med de nevnte verdiene. F.eks. så selger Komplett.no i øyeblikket DDR4-brikker med frekvenser på 3400 Mhz, men disse trekker 1,35 Volt. Mens DDR3-brikkene har frekvens på 2400 Mhz som trekker 1,65 Volt. Dette er jo spenninger som ligger over designet, men så er det altså overklokkingsbrikker man snakker om. Det må jo være et godt eksempel på vellykket ingeniørkunst mhp. den forbedringen dette bevitner (DDR4). Stusselige saker ja, men hva er grunnen tro. Ingen konkurranse? Motivasjonen bak produktet er kanskje det å få ut mer strømgjerrige produkter, framfor å jage hastighet. Det er også en utfordring å gå for en helt ny produksjonsteknologi på 14 nanometer, og da er det kanskje tryggere å ta det litt rolig framfor å forhaste seg. Kanskje Intel fant ut at utfordringene over på 14 nanometer var vanskelige? Men Skylake har jo levert en del andre arkitekturmessige goder. Thunderbolt 3.0 er jo en slik nyvinning, som kommer godt med i disse 4K-skjerm tidene. 3.0-versjonen støtter 40 Gbit/s. Men hovedkortet må følge med i utnyttelsen. Det nytter jo ikke å gi ut hovedkort som mangler utnyttelsen, for da får man jo ikke full glede av CPU'en. Denne Thunderbolt-versjonen klarer jo maks. 5K-skjerm på 60 Hz siden den leverer Display-port 1.2-støtte, samt kan levere en strømeffekt på 100 Watt. Tja, synes du 30% ytelsesøkning er verd kostnaden? Mulig du kan få 30% ytelsesøkning bare med å rense opp litt i Windows-installasjonen din... Jeg synes nå ikke kr 2600,- er særlig avskrekkende jeg for en flunkende ny i5-versjon: https://prisguiden.no/produkt/NDQzXjI0OTM0NTk Ca. kr 3800,- om du tar i7-utgaven da. Endret 6. august 2015 av G Lenke til kommentar
Phinex Skrevet 6. august 2015 Del Skrevet 6. august 2015 Synes ikke dette var mye å rope hurra for. Ser ut til at min 2600k blir værende en stund enda. Tenkte på det samme. Har 2500k selv. Tror jeg klarer meg fint enda! Lenke til kommentar
G Skrevet 6. august 2015 Del Skrevet 6. august 2015 Siden folk er så skeptiske til den lave ytelsesøkningen. Hvor mye dårligere kommer disse CPU'ene til å yte med TDP nede i 35 Watt og lavere, når slike modeller kommer seilende forbi? Lenke til kommentar
ATWindsor Skrevet 6. august 2015 Del Skrevet 6. august 2015 10%? Her var det ikke mye å hoppe i taket for... Var det ikke Skylake mange hauset opp som den større arkitekturforandringen på en god stund så vi kanskje kunne få sett et lite hopp i ytelse? 10% er jo godt innenfor hva jeg ser på som likegyldig mellom to generasjoner.. Og hvorfor er det fremdeles ikke mulig med mer enn 1x PCI-Express x16 på disse prosessorene? At man må opp på entusiastplattformen for å få PCI-Express x16 til 3-4x skjermkort er greit nok, men at man ikke skal klare 2x PCI-Express x16 på LGA1151 virker jo temmelig dødfødt? Det er tydelig at Intel holder det tilbake med overlegg.. Enig, det er for få lanes. Hadde også ønsket meg 10gbe LAN. AtW Er det garantert at "lanes"-begrensningen sitter i denne CPU'en? Enig 10 Gigabit LAN hadde vært fint. Men, går det ikke an å nyttegjøre seg Thunderbolt sin gode båndbredde, med en slags adapter da? Eller sette i et 10 Gigabit nettverkskort. Eller få på plass noe i OS'et som gjør Thunderbolt anvendelig som nettverkskort? Evt. et annet chipset, som legger 10 Gigabit nettverkskort der, og gir en slik kobbervariant av en nettverkskontakt på selve hovedkortet. Det skulle jo ikke mangle på båndbredde (bus) mellom CPU og Chipset. JEg skjønner ikke helt hva du mener? Denne CPUen har et gitt antal lanes, slik er det bare, og det kan du lese utifra specsene. Joda, man kan kjøpe nettverkeskort, de koster flere tusen, mye bedre med innbygd i chipsettet. AtW Lenke til kommentar
ATWindsor Skrevet 6. august 2015 Del Skrevet 6. august 2015 Men jeg vil ikke si at Watt er synonymt med varmeutvikling, selv om varmeovner oppgis med en slik verdi målt i Watt. Motstand f.eks. gir grobunn for varme, og måles i ohm. En motstand gir grobunn for varme ja, fordi produktet bruker mer effekt (watt) og dermed produserer mer varme. AtW Lenke til kommentar
RamGuy Skrevet 6. august 2015 Del Skrevet 6. august 2015 Intel gjør det hvertfall ikke vanskelig å avvente Intel Skylake-E, men det komme vel neppe før om minst et år? Og i kjent Intel stil så kommer vel brikkesettet til Skylake-E til å mangle essensielle ting som da allerede har kommet til brikkesettet til neste runde med Intel CPU-er til konsumer plattformen (Intel Z180?).. Lenke til kommentar
HKS Skrevet 6. august 2015 Del Skrevet 6. august 2015 Intel gjør det hvertfall ikke vanskelig å avvente Intel Skylake-E, men det komme vel neppe før om minst et år? Og i kjent Intel stil så kommer vel brikkesettet til Skylake-E til å mangle essensielle ting som da allerede har kommet til brikkesettet til neste runde med Intel CPU-er til konsumer plattformen (Intel Z180?)..Skylake-E kommer nok ikke før halvannet år. 200-serie chipset (Union Point) er planlagt neste år sammen med "Kaby Lake" for konsumentplatformen. Lenke til kommentar
kilik Skrevet 6. august 2015 Del Skrevet 6. august 2015 Verden går framover, men litt saktere enn før. Kan vel regne med en ytelsesforbedring på 3-5% årlig. Noe ganske annet enn på 90-tallet... 1 Lenke til kommentar
HKS Skrevet 6. august 2015 Del Skrevet 6. august 2015 Verden går framover, men litt saktere enn før. Kan vel regne med en ytelsesforbedring på 3-5% årlig. Noe ganske annet enn på 90-tallet...Hvis du tenker på ytelsesforbedring i single-threaded applikasjoner (IPC) blir den nok mindre. De neste årene vil man i større grad se endring i minne og cache hierarkiet og flere kjerner bli brukt for å øke ytelse. Verden bryr seg også om forskjellige ting. I mainstream er strømforbruk viktigere en IPC. Hvis du tar et 7150 mAh batteri som er typisk i en 11-13" ultrabook og ser hvor mange regneoperasjoner (flops) du får ut av dette vil du nok se at verden går mye fortere fremover nå en av den gjorde på 90-tallet. Lenke til kommentar
kilik Skrevet 6. august 2015 Del Skrevet 6. august 2015 (endret) Tenkte ytelseforbedring utfra pris. Altså at man om 10 år får kjøpt en desktop-CPU som er ca. 50% raskere til samme prisen som i dag. Ytelse/watt er hovedfokus ja og det er bra det. Endret 6. august 2015 av kilik Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå