Gå til innhold
Presidentvalget i USA 2024 ×

SSD-benche tråden: Info og Diskusjon, Tweaking og Benchmarks av SSD


Ourasi

Anbefalte innlegg

Mer grafer! Denne gang for sekvensiell les.

Båndbredde:

post-163450-0-63042400-1290634492_thumb.png

Ved første øyekast ser alt forholdsvis greit ut, med noe begrenset skalering av RAID ved lavere blokker og QD.

IOPS/accesstime:

post-163450-0-36117800-1290634583_thumb.png

Ved å se et hakk lenger i dybden dukker det derimot opp noe forstyrrende. Det er noen dropp i grafen her før den tar seg opp igjen ved høyere QD... Dette er noe jeg har lyst til å sammenligne med 2, 4, og 8 workers for å se om de samme droppene forekommer da.

Jeg tror jeg venter med å benche det til i morgen.

Har noen av dere peil på hva som kan forårsake disse droppene i ytelsesskalering? (for de er ikke dropp i ytelse, bare skalering/QOS).

 

Nå skal jeg se på 4KB random read skalering med 1-8 workers for 1-4R0, exp2 QD n-128, og lage et par grafer for det. Jeg har allerede kjørt benchene.

Endret av GullLars
Lenke til kommentar
Videoannonse
Annonse

Droppene gjetter jeg på kan skyldes mismatch mellom stripestørrelse og noe intern organisering av blokker. Akkurat hvordan aner jeg ikke, men det er i hvert fall der mistanken ligger.

 

Ellers så ser at grafene bekrefter ting mange av oss sikkert viste godt fra før:

- Raid0 fungerer bra til sekvensielle laster

- Raid0 fungerer bra til mangebruker-laster (stor kødybde)

- Raid0 fungerer dårlig til enbruker (4k og liten kødybde)

Lenke til kommentar

Det jeg liker å ha i bakhodet er at uansett hvor hardt jeg kjører RAIDet vil ytelsen selv i worst-case være over 4000-5000 IOPS (100% random, 60% read, 4KB, QD1), og om det kommer litt større blokker (32KB+) flyr ytelsen fort opp i mange hundre MB/s selv uten nevneverdig QD (1-3).

Jeg gleder meg litt til å teste launch-script på dette oppsettet etter jeg får installert windows... :)

Jeg har heller ikke testet P2 x6 i noe tungt praktisk etter jeg klokket den, så det skal bli spennende.

 

Anvil, vil en hIOmon måling under et launch-script være interresant å se på selv om OS er installert på RAIDet?

Lenke til kommentar

Droppene gjetter jeg på kan skyldes mismatch mellom stripestørrelse og noe intern organisering av blokker. Akkurat hvordan aner jeg ikke, men det er i hvert fall der mistanken ligger.

 

Ellers så ser at grafene bekrefter ting mange av oss sikkert viste godt fra før:

- Raid0 fungerer bra til sekvensielle laster

- Raid0 fungerer bra til mangebruker-laster (stor kødybde)

- Raid0 fungerer dårlig til enbruker (4k og liten kødybde)

 

Derfor finnes det noe som heter Areca 1880 med 4gb cache som koster ca 2øre  :D

Lenke til kommentar

3 sett grafer som viser 4KB random read skalering med QD, 1-4R0, og workers.

2 måter å vise samme tall:

post-163450-0-22406800-1290643254_thumb.png

Og effekten av å øke antall tråder for QD 8-128 for 1-4R0. Denne synes jeg var morsom når jeg kom på. EDIT: om det ikke går klart frem, så viser den tydelig at jeg er CPU-begrenset når det er skalering fra 4 til 8 tråder.

post-163450-0-91032000-1290643263_thumb.png

 

Jeg vurderer også å lage et sett med grafer for samme tall som fra forgie post, bare med "x skalering" i stedet for IOPS på Y-aksen. Om dere ikke er interreserte i å se det lager jeg det bare for meg selv og lar være å poste for ikke å spamme tråden her med grafer :p

Endret av GullLars
Lenke til kommentar

Tap av skrivehastighet er ikke ubegrenset, det vil stabilisere seg en plass avhengig av random:sequential forhold for skriving (og block størrelser). Jo høyere forhold (og mindre blokker), jo lavere vil ytelsen stabilisere seg.

 

Det ser ut som du fikk ca 20MB/s høyere sekvensiell les og 10K mer maks IOPS av klokken, som bekrefter at taket for SSD ytelse på SB850 er påvirket av enten NB eller HT. Jeg vil tippe det er HT, siden SB er linket til CPU over HT. Du kan jo teste å klokke NB videre til 2,8Ghz (14x multi) og se om det øker resultatet enda mer.

NB må være lik eller høyere enn HT, så det skal være mulig.

Lenke til kommentar

Jeg fikk det stabilt til 2860mhz for både NB og HT (13x220) med +0,1V på NB, og 3 hakk fra rød spenning på HT i BIOS (husker ikke tallet).

På 2,6Ghz kjører jeg NB og HT på stock volt.

Jeg gjorde nettop en morsom IOmeter test der jeg kjørte 4 workers mot 2 non-member C300, 2 workers pr SSD, og endte opp med 721MB/s peak på QD 32 for 256KB sekvensiell les... Det er 360MB/s pr SSD :)

Jeg skal sammenligne det med 2R0 etterpå.

Lenke til kommentar

Jeg fikk det stabilt til 2860mhz for både NB og HT (13x220) med +0,1V på NB, og 3 hakk fra rød spenning på HT i BIOS (husker ikke tallet).

På 2,6Ghz kjører jeg NB og HT på stock volt.

Jeg gjorde nettop en morsom IOmeter test der jeg kjørte 4 workers mot 2 non-member C300, 2 workers pr SSD, og endte opp med 721MB/s peak på QD 32 for 256KB sekvensiell les... Det er 360MB/s pr SSD :)

Jeg skal sammenligne det med 2R0 etterpå.

 

Tipper du får brukt for QD 32 for 256k ofte  laugh.gif

 

 

 

 

 

Bare tuller med deg :p Morro å se disse talla! Jeg er oppe i over 270MB/s med en c300 sekvensiell les i hdtach.

 

 

Lenke til kommentar

Jeg gjorde nettop en morsom IOmeter test der jeg kjørte 4 workers mot 2 non-member C300, 2 workers pr SSD, og endte opp med 721MB/s peak på QD 32 for 256KB sekvensiell les... Det er 360MB/s pr SSD :)

Jeg skal sammenligne det med 2R0 etterpå.

Blir moro å se om det skalerer på 2R0 da

 

Jeg har egenlig gitt litt opp å få det stabilt på 2,8. 2,6 gir meget gode resultater så da får det bare være så lenge. Eneste som mangler nå er å ryke på enda en 128GB C300......Får se om det blir en julegave på meg selv i år også :whistle:

Lenke til kommentar

Bat, jeg får minne på at det er salg på C300 på MPX(?) i morgen fra 18-20. Info i SSD-tråden.

 

Jeg holder på å kjøre 4-256KB Random og seq read med 2-8 workers på 2-4R0 nå for å ha tall å sammenligne med tidligere tester med 1 worker for å se etter CPU bottlenecks. Det jeg fant over var bare en morsom tilfeldighet.

EDIT: QD fra #worker til 32 i lineær stepping...

Endret av GullLars
Lenke til kommentar

Vel, mulig eg er på feil plass for å laste ned raidxpert... men der vil de ta en windows scan før eg får laste ned... noko eg ikkje har lyst til av div årsaker :whistle:

Virker merkelig også :hmm: Totalt feil plass?

Vist noken har direkte link til DL, eller rar fil så hadde dette vert satt stor pris på :)

 

Reboot now!

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...