ThaBear Skrevet 23. november 2010 Del Skrevet 23. november 2010 (endret) Gleder meg til å se kva eg kan forvente på 2R0 c300 Mine er bestil å kommer innen helgen. Hvilken kontroller testet du på? GullLars Skrevet i dag, 22:08 Tester har vist at ICH10R klarer å levere mer båndbredde når PCIe klokken økes. Det har vært målt helt opp i 800MB/s fra ICH10R når PCIe klokken dyttes forbi 110 samtidig som CPU er rask. Hvordan er dette med SB850 ? Noko som kan booste kva kontrolleren klarer der også? Eller må man bare teste med pci-e her også? Endret 23. november 2010 av ThaBear Lenke til kommentar
GullLars Skrevet 24. november 2010 Del Skrevet 24. november 2010 Om du ser tilbake på forgie side passerte jeg 1000MB/s med SB850. Det jeg fant var at Northbrige og HyperTransport kunne øke maks båndbredde en smule, og litt på IOPS. Jeg måtte også klokke Phenom II x6 1090T til over 4Ghz for å nå 1000MB/s+ og 100K IOPS. PCIe klokken hadde ingen merkbar effekt selv ved 110. Det var heller ikke noe å tjene på BCLK virket det som. NB+HT var stabile til 2,8Ghz, og det ga best resultater, men for å slippe å øke BCLK nøyde jeg meg med 2,6Ghz (13x multi var maks på HT) for å ha minnet på standard klokk. Greit med BE prosessor, bare økte multi til 21 (4,2Ghz). Lenke til kommentar
GullLars Skrevet 24. november 2010 Del Skrevet 24. november 2010 (endret) Et par sett med grafer, kanskje ikke de letteste å tolke eller mest interresante... Men jeg skal se på dataene fra den andre IOmeter configen i marra, og der er det nok mer interresante ting. Random Sequential EDIT: glemte bildene Endret 24. november 2010 av GullLars Lenke til kommentar
GullLars Skrevet 24. november 2010 Del Skrevet 24. november 2010 Dette er noe uvanlig, men jeg vil vise frem hvor lite imponerende resultatene ble om man kutter ut 100% read og 0% read (altså ikke kun les/skriv). Det ser tragisk ut sammenlignet med tall benchet i AS SSD og ATTO, og generelt de fleste benchmarks. Mixed read/write gir et massivt fall i ytelse på små blokker. Random: Sequential: På den andre siden, om man annser dette som worst-case og sammenligner med typiske tall fra harddisker og single SSDer er det ikke så ille. Lenke til kommentar
Anv Skrevet 24. november 2010 Del Skrevet 24. november 2010 Interessante tall selv om de var bedrøvelige, i forhold til HDD er det en drøm uansett. Nå er det jo gjerne en viss blanding i de fleste sammenhenger, spesielt i flerbruker/database sammenheng. Lenke til kommentar
Buzz76 Skrevet 24. november 2010 Del Skrevet 24. november 2010 Da har jeg fått WD N1x i hus og testa den. Testa den på server (spec i signatur) SB710. Ikke akkurat voldsomme resultater. Kanskje jeg må prøve den på Win7 også Lenke til kommentar
Theo343 Skrevet 24. november 2010 Del Skrevet 24. november 2010 Huff, synd at WD diskene bare var på helgetilbud :/ Lenke til kommentar
War Skrevet 24. november 2010 Del Skrevet 24. november 2010 Tok 5 min å slege ut den ene, jeg skulle ha 5 men fikk 1. Hele gruppen min på skolen kjøpte samtidig. Vare nr 2 solgte 38stk på 10 min. Når de gikk tom forsvinner bildet, så det ble bare de "dyre" igjen. Lenke til kommentar
Kimm0n0 Skrevet 24. november 2010 Del Skrevet 24. november 2010 Kjøpte selv 3 stykk som ligger på hentebua og venter på meg. Er ikke helt sikker på om jeg skal bruke dem privat eller på servere på jobben. Lenke til kommentar
GullLars Skrevet 24. november 2010 Del Skrevet 24. november 2010 (endret) Her kommer noen tall som viser skalering av 1-4R0 C300 64GB fra SB850. Dette settet med grafer er for 4-256KB 100% random 100% read, QD1-32. Båndbredde: QOS (quality of service. IOPS/Accesstime) Toppen av hver graf viser hvor "diminishing returns" setter inn, altså hvor skaleringen avtar. Til høyre for toppen øker accesstime raskere enn IOPS, det viser mettning av kanalene fra lagringsmediet. Merk: Dette er med 1 worker, og 4KB er CPU-begrenset for peak. EDIT: jeg skal lage like grafer for sequential read også. Om det er interresse for det kan jeg poste samme grafer for random write og sequential write. Endret 24. november 2010 av GullLars Lenke til kommentar
dabear Skrevet 24. november 2010 Del Skrevet 24. november 2010 (endret) Hvordan var det jeg søkte i denne tråden etter mine tidligere poster? Jeg ønsker å finne tilbake igjen bechmarken jeg gjorde tidligere på min intel x25 på macbooken. Her en benchmark jeg gjorde nettopp: Endret 24. november 2010 av dabear Lenke til kommentar
Anv Skrevet 24. november 2010 Del Skrevet 24. november 2010 Vi må vel godkjenne deg GB/s klubben GullLars Når man har både random og sekvensiell over grensen er det greit Var greie grafer de siste, ikke for overfylt med linjer som noen av de tidligere var. (det var vel mer at de overlappet så mye) Lenke til kommentar
Theo343 Skrevet 24. november 2010 Del Skrevet 24. november 2010 (endret) Tok 5 min å slege ut den ene, jeg skulle ha 5 men fikk 1. Hele gruppen min på skolen kjøpte samtidig. Vare nr 2 solgte 38stk på 10 min. Når de gikk tom forsvinner bildet, så det ble bare de "dyre" igjen. Jupp, jeg tenkte mest på SLC. MLCene hadde jeg kjøpt noen av med en gang om jeg så det men SLCene måtte jeg tenke litt nøyere på behovet og glemte at tilbudet snart gikk ut. Men shit au, når 64GB Crucial C300 koster 995,- er det ikke store nederlaget. Endret 24. november 2010 av Theo343 Lenke til kommentar
Nizzen Skrevet 24. november 2010 Del Skrevet 24. november 2010 Over 1GB/s ved 1QD er det som teller Til Gullars Lenke til kommentar
GullLars Skrevet 24. november 2010 Del Skrevet 24. november 2010 (endret) Etter å ha tatt en titt på tallene for Seq Read også har jeg bestemt meg for at testing med kun 1 worker ikke holder da jeg veldig mye mulig har vært kraftig CPU-begrenset for 4+8KB random, og det er noen rare tendenser rundt QD 3-8 for små block seq. Jeg tenker jeg gjentar en begrenset del av settet, 4-32KB Random og Seq read, lineær QD n-32, n stepping for 2-8 workers der n=#worker, for 2-4R0. Jeg tenker da å bruke det for å se på CPU/tråd innvirkning ved lav block. EDIT: jeg får teste en QD 1 for 256-4096KB da og se om den går over Endret 24. november 2010 av GullLars Lenke til kommentar
BAT Skrevet 24. november 2010 Del Skrevet 24. november 2010 Jeg måtte opp i 4 workers for å få max iops ut av mine C300 på SB850. Link Lenke til kommentar
GullLars Skrevet 24. november 2010 Del Skrevet 24. november 2010 Hva slags CPU kjører du BAT, og hvilken klokk? Jeg ser du endte opp på 95K IOPS i AS SSD. Jeg passerte 100K IOPS med mine 2R0 C300 64GB i IOmeter med 4 workers på QD16 (pr worker, 64 total). Lenke til kommentar
BAT Skrevet 24. november 2010 Del Skrevet 24. november 2010 X6 1090T på 3,8. Kun styrt med multiplier på cpu. Resten stock. Jeg brukte 4K RR iometeroppsettet i 2 post. Lenke til kommentar
GullLars Skrevet 24. november 2010 Del Skrevet 24. november 2010 Da har vi samme CPU og chipset Tips: 1090T støtter Northbridge og HyperTransport opp til 2,8Ghz i følge specs (HT3), men står på 2Ghz stock. Du kan enkelt sette opp til 2,6Ghz ved å øke NB og HT multiplier fra 10 til 13x (maks for HT) i BIOS uten å røre noen andre ting. Det krever ikke mer volt, og gir ikke stabilitetsproblemer, men kan gi deg noe mer båndbredde og IOPS. Jeg har ikke gjort en blindtest av om det var CPU fra 3,6->4,2, NB+HT fra 2,0->2,6, eller begge deler som gjorde utslaget, men med 2R0 ga klokking en økning fra ca 90K til 97,5K IOPS i AS SSD. IOmeter kan måle noe høyere IOPS enn AS SSD med fler workers, det virker som 4-8 workers med QD 16-32 pr stk er mer effektivt enn 64 tråder med QD 1. 1 Lenke til kommentar
BAT Skrevet 24. november 2010 Del Skrevet 24. november 2010 Godt valg av cpu og hovedkort Jeg har ikke prøvd meg så mye utover litt multiplier klokking så takk for tipset. Skal prøve teste dette i helga og se hvor mye det utgjør i AS SSD og Iometer. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå