Gå til innhold

Test: AMD FX-8350


Anbefalte innlegg

Videoannonse
Annonse

Enig i at deler feiler i alle priskategorier? Ja, har mange eksempler på det jeg også. Anklager du meg for å være useriøs? Interessant.

Om noen har påstått noe annet så er det i så fall en skrivefeil fremfor noe annet. For det er ingen som har ment at dyre komponenter nødvendigvis betyr gode komponenter.

Ja, jeg er en interessant person. :ph34r:

Lenke til kommentar

Nå begynner du å bli rimelig irriterende Andrull. Jeg har forklart at rimelige hovedkort, PSU og minne for den del gjerne er praktisk talt like stabilt som dyre komponenter. Jeg har vist det hovedkortet jeg bestilte (som du ga inntrykk av at ikke eksisterte), hva får deg til å tro at det er ustabilt? Malvado og efikkan må gjerne svare på dette også. Når det gjelder minnebrikker foretrekker jeg Corsair fordi jeg har hatt gode erfaringer med disse, minnebrikker er det ofte feil på, og det kan være frustrerende. Riktignok kjøper jeg likevel billige brikker. Tiden da jeg betalte dobbel pris for kvasse timings er over. Det synes også å være en forvirring av begreper. Ustabilt og defekt er to forskjellige ting. Du har servert så mange stråmenn at det begynner å bli slitsomt å overse dem. Ja, hvis du holder spenningen konstant så kan du over visse intervall av frekvenser få lineær skalering. Har jeg noensinne motsagt det? Så hvorfor gjentar du det som om jeg har benektet det? På samme måte vil enhver gjøk som oppsøker hjelp til overklokking bli tipset om å justere spenning, det er typisk en standard del av greia. Jeg kjenner til tilfeller hvor folk har kjøpt i7 920 uten å få mer enn knappe ti prosent overklokk (nei ikke fordi de ikke hadde peil, uansett er det uinteressant). Hvor vanlig det er vet jeg ikke, men hadde det vært sikker overklokk, så hadde ikke Intel begrenset Turbo til drøyt 2.8GHz på den. Jeg synes det er svært merkelig at du er så kategorisk på dette. At overklokk til 3,6-4GHz er vanlig virker klart, men hvor vanlig det er er svært vanskelig å si, folk liker bare å fortelle om suksesshistorier. Hovedgrunnen til det er holdningene du legger til grunn her.

Endret av Del
  • Liker 4
Lenke til kommentar

Hovedkortet du linker til tidligere har sannsynligvis en 3+1 VRM Phase (eller 4+1) og er derfor mindre stabil enn feks de hovedkortene som er noe solidere og har en 8+2 VRM design.

 

Ellers så ser jeg jo også andre typiske ankepunkter på MSI hovedkort som kjøleløsningen , layout og noen andre småting. Kortet vil sannsynligvis fungere fint så lenge det ikke overbelastes. Jeg vil anta at det ikke er akkurat er kort som vil vare vesentlig lenge ( et par år kanskje? ).

Lenke til kommentar
Gjest Slettet+6132

Her må jeg støtte Del selv om jeg ikke alltid er enig med han. :)

Jeg har klokka så mye og bygd så mange systemer (*hundrevis*) at det med overklokk er mest flaks for en god del. Det er min erfaring ihvertfall.

Så meg etterhvert lei av "eksperter" her som ikke var annet enn heldige med sine CPU'er.

Samme med uttrykket "stabil klokk". Ett klokket system som er "Prime-stabil" i to døgn kan fint krasje ved å surfe/gjøre helt vanlige operasjoner som treffer akkurat den instruksjonen som ikke er stabil ved gitt klokk. Det er da en grunn til at CPU'en har en standard klokk! (Men av og til så får man en "gullchip" som klokker/kjører stabil laaangt over stock).

Joda,.

De som sitter i rotekassene i fabrikkene til Intel (Kina) eller bruker alt av penger/tid til å lete seg fram til de rette chip'ene vil få høy overklokk.

Har de peil/lang erfaring i å tweake Bios'er så vil man finne stabile settings.

Men ikke sjelden vil selv ett entusiastkort/potensielt "god" chip være en "dog" til å klokke.

De beste "chip'ene"/overklokkene jeg oppnådde var alltid på billige/"ukurante" CPU'er.

Og til Malvado:

Att ett billig hk skal vare ett par år tyder på at du omtrent må være en noob (det er du ikke).

Jeg har hk/systemer som går feilfritt og stabilt på 5te året, noen har kjørt som server mye lenger enn det (både Intel og AMD-rigger).

Endret av Slettet+6132
Lenke til kommentar

Att ett billig hk skal vare ett par år tyder på at du omtrent må være en noob (det er du ikke).

Jeg har hk/systemer som går feilfritt og stabilt på 5te året, noen har kjørt som server mye lenger enn det (både Intel og AMD-rigger).

Nå er det nettopp på det rimelige chip'ene at det er mest potensiale til overklokk bare så det er sagt. ;)

Det er ingen direkte kvalitetsforskjell mellom de forskjellige chipene, da de fleste lages på samme fabrikken og forskjellige kan komme fra akkurat samme plate silisium.

Derimot så skjer det en sortering over chipene hvilken modell de skal få. Det er nettopp derfor vi har tatt opp i7 920, som er den billigste i sin serie.

 

På hovedkort så blir det omvendt, hvor hver modell kan være vit forskjellig i både oppbygning og komponenter som brukes.

 

Nå begynner du å bli rimelig irriterende Andrull. Jeg har forklart at rimelige hovedkort, PSU og minne for den del gjerne er praktisk talt like stabilt som dyre komponenter. Jeg har vist det hovedkortet jeg bestilte (som du ga inntrykk av at ikke eksisterte), hva får deg til å tro at det er ustabilt?

På samme måte som at du påstår min overklokk er ustabil.

Og da er det ikke den i signaturen jeg snakker om, da dette mer er snakk om "gaming-overklokk" hvor stabilitet ikke er noen veldig avgjørende faktor.

 

Vi kan selvsagt diskutere om hva som er stabilt og ikke til vi blir blå, men kan vi ikke bare begrave stridsøksa litt? Greit, du mener billige komponenter er like habile som dyre med høyere kvalitetskomponenter. Samt mener normal overklokking (bortsett fra veldig små) vil påvirke stabiliteten. Jeg er ganske uenig, men siden det ikke finnes noen direkte måte å måle stabiliteten (hvor stabilitetstester tar for lang tid til å være intressant) så kommer vi ingen vei.

Sannheten ligger nok egentlig at systemet uansett vil være stabilt nok for brukeren at verken av metodene skal ha noe å si.

 

Et sidetema ville vært hvordan levetiden blir påvirket. En overklokk vil som oftest påvirke levetiden, og dårligere (og i denne sammenheng også billige) komponenter på hovedkort og inni PSUer vil også påvirke levetiden.

Også her så vil det være lang nok levetid for de vanlige bruker. En CPU sin levetid er såpass lang ved riktig vedlikehold at teknologien har innhentet den lenge før den dør pga en forkortet levetid som følge av overklokking.

Det blir litt lignende med billigere komponenter i HK og PSU. F.eks vil en kondensator miste en betraktelig kapasitet, uansett om de er gode eller dårlige. Men i en god PSU/HK er de overdimensjonerte og tåler oppgitt belastning i lang nok levetid at du ikke lenger har bruk for enheten lenger.

 

Edit: Og til slutt, ikke rettet mot deg Del, vil jeg bare si at jeg nærmest har sett en endeløs rekke av defekte hovedkort (som regel i budsjett eller mellomklasse, uten at jeg insinuerer noe videre med det) av venner, bekjente, arbeid og meg selv.

Mens det dyreste X58 hovedkortet har overlevd samtlige belastninger, kortslutninger og tidens tann, og kommer til og med med livtidsgaranti, noe som egentlig sier sitt om levetiden jeg kan forvente fra hovedkortet.

Nå var det vel strengt talt ikke dette jeg kjøpte hovedkortet for, men nødvendige funksjoner.

Endret av Andrull
Lenke til kommentar

Her må jeg støtte Del selv om jeg ikke alltid er enig med han. :)

Jeg har klokka så mye og bygd så mange systemer (*hundrevis*) at det med overklokk er mest flaks for en god del. Det er min erfaring ihvertfall.

Så meg etterhvert lei av "eksperter" her som ikke var annet enn heldige med sine CPU'er.

Samme med uttrykket "stabil klokk". Ett klokket system som er "Prime-stabil" i to døgn kan fint krasje ved å surfe/gjøre helt vanlige operasjoner som treffer akkurat den instruksjonen som ikke er stabil ved gitt klokk. Det er da en grunn til at CPU'en har en standard klokk! (Men av og til så får man en "gullchip" som klokker/kjører stabil laaangt over stock).

Holder nær 24/7 over tre år? Eller 2 år som S.M.A.R.T oppgir på SSDen som jeg har brukt som OS?

Det er en grunn til at CPUen har en gitt klokk, men det er ikke like lett som å tro at det er fordi den ikke er stabil på høyere frekvenser.

 

Ofte er det av økonomisk hensyn. De lager hele serier om gangen på samme maskin til samme tid, og av et økonomisk hensyn så må de selge produkter til forskjellig prisklasse. For at ikke alle skal ha for lik ytelse som toppmodellen, så låses de ned med lavere multiplier på fabrikken. Det gjøres altså en grovsortering slik at toppmodellene plukkes ut og klarer gjerne litt høyere effektivitet og noen ganger også høyere overklokk. Det betyr IKKE at de lavere klokkede modellene er stort dårligere, men dette vil varierer veldig på yields og arkitektur. Jo bedre yields og mindre variasjon innad i brikkene, jo bedre for oss overklokkere som ønsker å spare penger på å plukke ut en lavere modell i serien.

 

På Grafikkort så tar de i steden å "destruerer" en del av kjernen med laser eller låser det bort via firmware (eller enda dypere) for å få økonomien til å gå opp, og kunne levere et produkt til flere grupper. Dette vil også hjelpe flere brikekr til å komme innenfor ønsket yields.

 

Du kan sikkert også få en gullchip, men det er altså ikke slike lykketreff jeg sikter til...

 

Det tar sjelden særlig lang tid før du kan trekke konklusjoner om hva som er en bra modell/serie til overklokking. Du kan fortsatt være uheldig, men når vi snakker om et ganske stort utvalg (som du ender opp etter å ha sitte på flere forum), samt tester et par selv, og reviews, og alle disse har forholdsvis liten spredning, så får du en ganske god indikasjon. De med dårlig erfaring fra en brikke skriker gjerne høyest. :p

Lenke til kommentar

Denger ikke dere på en forlengst død hest her? Det finnes tilfeller hvor mer avansert betyr flere kilder som kan føre til feil, bare spør eiere av Mercedes S-klasse og lignende space-technology lignende saker.

På samme måte vil det også være flere mulige feilkilder i et hårete hovedkort enn i et billig og enkelt et som er bygd på velkjente og velprøvde prinsipper.

 

På den andre siden finnes det enkle og billige hovedkort som er bygd så enkelt og billig at temperatur-svingninger vil drepe det.

 

Det å diskutere hvem som har mest rett i 10 sider blir en smule banalt, selv for meg som liker å kverulere.

Etter å ha lest gjennom de siste 4-5 sidene er det i bunn og grunn bare én tanke som slår meg;

 

"Fighting over the Internet is like competing in the Special Olympics; whether you win or not, you're still retarded" :fun:

  • Liker 1
Lenke til kommentar

Hovedkortet du linker til tidligere har sannsynligvis en 3+1 VRM Phase (eller 4+1) og er derfor mindre stabil enn feks de hovedkortene som er noe solidere og har en 8+2 VRM design.

 

Ellers så ser jeg jo også andre typiske ankepunkter på MSI hovedkort som kjøleløsningen , layout og noen andre småting. Kortet vil sannsynligvis fungere fint så lenge det ikke overbelastes. Jeg vil anta at det ikke er akkurat er kort som vil vare vesentlig lenge ( et par år kanskje? ).

Vi får se. Jeg har et ganske bredt tallgrunnlag for billige hovedkort. *Ingen* har tatt kvelden etter to år. Hadde problemer med et par maskiner etter lynnedslag, men jeg har mine tvil om x58 ville hjulpet der. Jeg innser at vi er nok ikke enige her nei, jeg føler meg rimelig trygg på at dette hovedkortet vil fungere like bra om ti år, så lenge jeg ikke overklokker.

"Fighting over the Internet is like competing in the Special Olympics; whether you win or not, you're still retarded" :fun:

Heh, disabled, ikke retarded. Jeg har knekt fot vettu :tease:
Lenke til kommentar

Edit: Og til slutt, ikke rettet mot deg Del, vil jeg bare si at jeg nærmest har sett en endeløs rekke av defekte hovedkort (som regel i budsjett eller mellomklasse, uten at jeg insinuerer noe videre med det) av venner, bekjente, arbeid og meg selv.

Mens det dyreste X58 hovedkortet har overlevd samtlige belastninger, kortslutninger og tidens tann, og kommer til og med med livtidsgaranti, noe som egentlig sier sitt om levetiden jeg kan forvente fra hovedkortet.

Nå var det vel strengt talt ikke dette jeg kjøpte hovedkortet for, men nødvendige funksjoner.

Det er vel akkurat dette jeg vil til livs. Disse bekjente av deg med defekte hovedkort har neppe hatt vanlig bruk. Selv budsjett kort er enten defekt ved ankomst, eller de varer i år etter år med vanlig bruk. Så hvis det er slik som du sier, er det enten mye feil på el-nettet dine venner bruker, eller de pakker maskinen inn i et skap uten tilstrekkelig lufting, eller mer sannsynlig, de overklokker. Dette at budsjettkort tar kvelden etter to år ved vanlig bruk er rett og slett ikke tilfelle. Strømforsyninger og harddisker derimot tar kvelden innimellom (skjønt de fleste holder i mer enn to år), men på PSU har jeg ikke sett noen sammenheng mellom pris og holdbarhet.
Lenke til kommentar

Kommer litt sent inn her til denne gravskjender-diskusjonen, men pytt pytt...

 

De som trenger en kraftig arbeidsmaskin har god bruk for 6-8 kjerner, men problemet er at under normal arbeidslast vil FX-8350 oppføre seg som en firekjerne, siden to og to kjerner deler én FPU.

Definer normal arbeidslast... Jeg kan nemlig fint se for meg normal arbeidslast med liten til ingen bruk av FPU. Ved mange typer "normal arbeidslast" vil en 8350 oppføre seg som det den er, nemlig en 8-kjerne cpu.

 

Sammenhengen er kun lineær innenfor et mindre intervall.

Sammenhengen er lineær i utgangspunktet. Den blir noe annet enn lineær idet andre effekter som temperatur og økt spenning kommer inn i bildet.

 

Takk til Simen1 for et eksempel. Eksponenten er i størrelseorden 1<k<2.

Dette er en kraftig forenkling, og kun gyldig i enkelte frekvensområder ved overklokking av konkrete komponenter.

 

Tror vi snakker om to forskjellige ting her. Noen av oss snakker om fysikken i dette, og da kan man ikke si noe annet enn at effekt øker lineært med frekvens.

 

Når det gjelder praktiske konsekvenser av å øke frekvens blir dette et mye mer sammensatt bilde, og det å si at frekvensen øker eksponensielt blir heller ikke korrekt, i og med at en praktisk målt effektkurve (f.eks ved overklokking) basert på frekvens vil være en kurve full av diskontinuiteter og kan ikke sies å være hverken lineær eller eksponenisell. Du vil f.eks få en diskontinuitet i kurven hver gang du stepper opp spenningen.

Lenke til kommentar

Du er så overbevist om at Bulldozer er firekjerner at du gløymer å sjekke referansene dine. ...

Den første testen er GENERIC CPU type, ergo totalt uoptimalisert for ein ny cpu arkitektur.

Right back at you, testene kan ikke sammenlignes siden det ikke er snakk om samme optimaliseringer, her er referansen K8. Hvis du først skal gi AMD fordelen av optimaliseringer så må du også ta med Intel-optimaliseringer.

 

Legg spesielt merke til hvordan HT for 990x gjør at den har en knekk i flere av testene når du overgår seks kjerner. Det er ingen slik knekk for bulldozer.

Legg merke til at det er kun C-ray og NAS-test hvor Intel har en knekk, ellers skalerer samtlige videre. Hvis du tenker over hva raytracing er (noe jeg tror du vet hva er), så er det noe som medfører langt mer branching enn press på regnekraft.

 

Hvis du ser videre på siste siden av din egen kilde så ser du at Bulldozer ikke klarer å skalere når regnekraften blir flaskehalsen:

With the CLOMP benchmark for measuring OpenMP efficiency' date=' the AMD FX-8150 surprisingly does the worst and is even less efficient at OpenMP scaling than the Core i7 2630QM Mobile Sandy Bridge. However, in the real-world of using the OpenMP-based GraphicsMagick, the Bulldozer performance was more favorable and in line with the other hardware.

The [b']AMD FX-8150 doesn't scale quite as well as a true eight-core configuration[/b] (i.e. the dual quad-core Opterons or up to six-cores with the Intel Gulftown Extreme)...

Hvis du kikker nærmere på grafen jeg viste deg sist. Du mener AMDs CPUer er såpass mye bedre til kompilering. Ta en nærmere titt på grafen:

 

post-63307-0-94318300-1361876803_thumb.png

 

Hvis AMD skalerer slik du beskriver så betyr det at AMD har under halvparten så god ytelse per kjerne og klokke som Intel har, noe vi vet ikke stemmer. Hvordan er det mulig å tolke denne grafen dithen du gjør og hevde dette viser at AMD skalerer som 8 kjerner?

For oss om har holdt på med systemer med hundrevis av maskiner som trenger oppetid vet vi hva som typisk feiler, og jeg har sett bøttevis av grisedyre PSU'er feile.

Slike anekdotiske "bevis" er verdiløse. Selvsagt vil overpriset utstyr også feile, de kan til og med være DOA. Hvis du skal kunne si litt med statistisk signifikans måtte du ha testet minst 1000 billige og dyre produkter, og kjørt disse under samme typiske last i årevis. Da ville du sett at selv om mange dyre komponenter også svikter fortløpende, så vil gjennomsnittlig levetid og oppetid være bedre på kvalitetsprodukter. Det blir like dumt som en bileier som har hatt én Toyota og én BMW, og siden BMWen hans hadde mer problemer så kunne han "bevise" at Toyota var bedre. Datasentre sender kontinuerlig kassevis av harddisker tilbake til produsentene, selv om det skulle være kvalitetsdisker. Så kan 500-1000 kr mer i hovedkort være verdt det? Selvsagt bør ikke kjøpere være ukritiske og tro at kvalitet alltid er proporsjonalt med pris, men de bør ikke nødvendigvis velge billigst mulig. Hvis litt dyrere komponenter medfører i gjennomsnitt minst 5 timer mindre med ekstraarbeid, er det verdt det? Hvis en harddisk har i gjennomsnitt bedre levetid, er det verdt litt ekstra? Dette blir selvsagt individuelle vurderinger.

 

Men du reiser et viktig punkt, en server har annet bruksmønster og behov enn f.eks. en overklokket spille-PC, og det setter forskjellige krav til strømforsyninger.

Definer normal arbeidslast... Jeg kan nemlig fint se for meg normal arbeidslast med liten til ingen bruk av FPU. Ved mange typer "normal arbeidslast" vil en 8350 oppføre seg som det den er, nemlig en 8-kjerne cpu.

Normal arbeidslast for en aktiv PC-bruker: Nettleser med en del faner(Flash og muligens JDK i bakgrunnen), kanskje en tekstbehandler, skype, spotify, torrent. Dette representerer alle threads med liten til middels last. Hvis maskinen har to kjerner vil selv dette her gå tregt, med fire kjerner vil det gå stort sett veldig bra, men CPUen vil hoppe mellom idling og last på kjernene. En sekskjerne vil idle langt mer enn en firekjerne, og kunne være kjøligere samtidig som mer ytelse er frigjort dersom brukeren skulle ha behov for det. Hvis brukeren fyrer opp et spill eller et krevende program som Photoshop, så er det vanlig å ha ting kjørende i bakgrunnen, noe benchmarks generelt ikke reflekterer. Med unntak av kanskje torrent så vil alle de nevnte programmene ha mange flyttallsoperasjoner, og kontinuerlig ha minst 4-6 treads kjørende med rimelig høy frekvens av flyttallsoperasjoner.
Lenke til kommentar

Du troller så fælt! bdver optimalisering er mykje meir dramatisk enn icore7 -> http://www.phoronix....item&px=MTA3NjE

For n-te gang, les vennligst les kildene bedre. Som du kan se i testen her er dette med AMD-optimaliseringer, så optimaliseringer med bdver kontra k8 kommer ikke på toppen av dette! (btw: det står ikke om Intel er kjørt med sine optimaliseringer eller ikke) Du bør ta en titt på compiler flags. Hvis en test kompileres med march=native så brukes automatisk de optimaliseringene som er tilgjengelig på kompileringsmaskinen, en test som bruker dette kan ikke sammenlignes med en annen som viser bdver mot k8 siden de har ingen felles referanse. Det er ikke alle testene som beskriver like nøye hva som brukes.

 

Bulldozer-derivater må betraktes som tallene viser, at "8-kjernene" yter stort sett omtrent som en firekjerne, der gevinsten av to og to amputerte kjerner i én modul kan variere; fra urealistiske tester hvor det gir oppmot 2-kjernes ytelse per modul, til andre tester hvor det utgjør en liten gevinst. Jevnt over dilter de etter Intels firekjerner, med noen få situasjoner hvor de leder. Hadde der vært en E5-2687W i testene så hadde det vært tydeligere at Bulldozer ikke skalerer så godt som ønsket. Dette er selvsagt en urealistisk CPU for konsumenter, men en i7-3930K kunne i det minste vært med i de nyeste testene for referanse. Hadde Bulldozer skalert som du og Del mener, så hadde vi sett store gevinster i flere tester, spesielt kompilering som Del stadig skryter over, uten at tallene jeg kan finne synes å understøtte dette. Skaleringstestene synes også å være feil, siden jeg ikke kan se at kjerner har vært slått av i BIOS, og det vil kunne være forskjell på hvilke kjerner i en Bulldozer som threads fordeles på.

 

Til flere av dere:

Hvis jeg er et "troll" fordi jeg betrakter faktiske målinger, så føyer jeg meg inn i rekken sammen med "grand-troll" som Bayes, Gauss, Laplace og Nightingale, som i mine øyne er et godt selskap. Voksne mennesker skal klare å ha en saklig diskusjon uten å peke finger, rope kallenavn og skrike ut. Eller er det jeg som er urimelig når jeg forventer at folk har lagt dette igjen i barnehagen?

  • Liker 1
Lenke til kommentar

Om ein brukar -march=native så vil den velja den beste cpu arkitekturen som er kjent for GCC. Om denne GCC versjonen er litt eldre, så vil den automatisk velja ein dårlegare CPU type.

 

Den siste testen du viser til er utført med GCC 4.6.1 som ikkje har bdver optimalisering i det heile tatt. I GCC 4.7 så er bdver godt støtta, og i GCC 4.8 så er vell Bulldozer så optimal den kan bli(det er lagt til støtte for Steamroller der allereie).

 

Eg skal kjøpe at Bulldozer ikkje skalerer like godt som ein "ekte" åttekjerner, men å samanlikne det med ein firekjerner er rett og slett rein trolling.

  • Liker 2
Lenke til kommentar

Legg merke til at det er kun C-ray og NAS-test hvor Intel har en knekk, ellers skalerer samtlige videre. Hvis du tenker over hva raytracing er (noe jeg tror du vet hva er), så er det noe som medfører langt mer branching enn press på regnekraft.

 

Hvis du ser videre på siste siden av din egen kilde så ser du at Bulldozer ikke klarer å skalere når regnekraften blir flaskehalsen:

CLOMP måler hvor effektiv tråd scheduling er. Såvidt jeg vet måler den ikke hvordan flyttall throughput skalerer. Spesielt at 990x fortsetter å skalere som den gjør er et ganske kraftig hint om at CLOMP ikke tester flyttallsthroughput. Jeg kjenner til NAS testene rimelig godt, de forteller deg historien på en representativ måte. Husk også at Opteron systemet er NUMA arkitektur, du kan ikke forvente at et single sokkel oppsett skal skalere like godt når minnekanalene deles.
Hvis du kikker nærmere på grafen jeg viste deg sist. Du mener AMDs CPUer er såpass mye bedre til kompilering. Ta en nærmere titt på grafen:

Kompilering skalerer ikke perfekt, det er alltid et betydelig serielt moment i kompilering, noe jeg er ganske sikker på at du er klar over. Dette er grunnen til at Bulldozer ikke skalerer bedre her. Når det gjelder rå ytelse er det mulig vi leser forskjellig her. Det jeg ser er at i5 2500K som er dyrere enn FX-8350 bruker over 40% lengre tid. Det er utklassing.

 

Nå har jeg forøvrig fått satt opp systemet. Skuffet over at jeg måtte justere minnet manuelt til 1600MHz (hovedkortet satte 1333MHz). Timings var dog riktige. Viften som følger med støyer forferdelig, så ny CPU kjøler er på handlelista. Liker det jeg ser av hovedkortet så langt, med ett unntak. Den kommer med en feilmelding som tyder på at den ikke ser mitt GTX560 grafikkort. Kortet virker greit, så det er i grunnen bare irritasjonen over tullete melding.

  • Liker 2
Lenke til kommentar

Siden dere nekter å godta faktum, la meg bevise nok en gang at dere tar feil.

 

Den siste testen du viser til er utført med GCC 4.6.1 som ikkje har bdver optimalisering i det heile tatt.

- GCC 4.6 changelog: Support for AMD Bulldozer (family 15) processors is now available through the -march=bdver1 and -mtune=bdver1 options.

- Phoronix-test med GCC 4.6.1 mot 4.7 demonstrerer tydelig støtten for bdver:

post-63307-0-56935500-1361906006_thumb.png

 

Eg skal kjøpe at Bulldozer ikkje skalerer like godt som ein "ekte" åttekjerner, men å samanlikne det med ein firekjerner er rett og slett rein trolling.

Så det er trolling å sammenligne den med verdige konkurrenter? I de fleste tilfeller blir den slått av en i5-3570 som er en firekjerne, og de fleste stedene den blir slått blir den stort sett slått av en i7-3770K, som riktig nok koster mer men fremdeles er, ja du gjettet det: en firekjerne. Men i følge din logikk så er ikke dette rettferdig, siden FX-8350 er en "åttekjerne", og siden ingen av konkurrentene er åttekjerner så er den bare i sin egen klasse??!?

 

Nok en gang vil jeg vise et visuelt hjelpemiddel til sammenligning:

post-63307-0-68784500-1361906267_thumb.png

Her har vi godeste Cinebench, som skalerer veldig godt med kjerner. Vennligst pek ut for meg i dette diagrammet som viser kjerneskalering, hvor ser du at AMD utklasserer med sine åtte kjerner? Dette er tross alt en av testene der AMD gjør det relativt bra.

 

Kompilering skalerer ikke perfekt, det er alltid et betydelig serielt moment i kompilering, noe jeg er ganske sikker på at du er klar over. Dette er grunnen til at Bulldozer ikke skalerer bedre her.

Bare en kommentar: Husker du for et par sider tilbake hvor jeg argumenterte for at kompilering ikke skalerte så bra som du gav uttrykk for?

 

Når det gjelder rå ytelse er det mulig vi leser forskjellig her. Det jeg ser er at i5 2500K som er dyrere enn FX-8350 bruker over 40% lengre tid. Det er utklassing.

i5-3570 som burde være sammenligningskandidaten er dessverre ikke med i diagrammet, men vi vet at den er 200 MHz raskere enn i5-3470, så all fornuft skulle vel tilsi rundt 90-100 i grafen der?

Vennligst forklar meg hvor den store fordelen av de åtte kjernene vises i komplileringen.

 

Hvis Phoronix hadde hatt en i7-3930K disponibel, hadde den fremdeles blitt slått av en FX-8350?

 

Nå har jeg forøvrig fått satt opp systemet. Skuffet over at jeg måtte justere minnet manuelt til 1600MHz (hovedkortet satte 1333MHz). Timings var dog riktige. Viften som følger med støyer forferdelig, så ny CPU kjøler er på handlelista. Liker det jeg ser av hovedkortet så langt, med ett unntak. Den kommer med en feilmelding som tyder på at den ikke ser mitt GTX560 grafikkort. Kortet virker greit, så det er i grunnen bare irritasjonen over tullete melding.

Selv mitt P9X79 WS satte minnet til 1333 MHz, men på Sandy Bridge-E er det et bevisst valg fra Asus for å sikre at kortet booter. Men det er litt irriterende etter strømbrudd (dvs. jeg med uhell kutter strømmen) at den tror det er overklokkingen som har feilet. Jeg vet ikke om dette er tilfelle for ditt kort.

 

Du har vel prøvd ny BIOS?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...