Gå til innhold

SSD-benche tråden: Info og Diskusjon, Tweaking og Benchmarks av SSD


Ourasi

Anbefalte innlegg

Sammenlignet med Ourasi's iometer test av E gir Sandforce en økning på

rundt 12.000 iops i read

rundt 10.000 iops i write

 

Dette er ikke lite :)

Tja, bra ytelse, og bra kontroller, dog synes jeg ikke dette var nok til å rope "løp og kjøp" mtp prisen på denne 64gb SLC utgaven og at E ikke akkurat blir noen bremsekloss med det første... Om den kom samtidig med E, så ville det jo stillt seg anderledes.. Men, om dette kan få deg til å handle, og selge E til meg, så for all del, hipp hipp :w00t:

 

Det var en annen som hadde spurt og svaret var QD 64.

 

Har han rappet våre config tro :whistle:

 

Det som ser artig ut er denne egenskapen med å rense tomme celler i idle (ikke GC), selv om TRIM selvsagt er å foretrekke, så virker det som om denne egenskapen ikke slutter å virke i Raid0 (?).. Raid0 med disse ser dog ut til å bli de rikes leketøy...

Endret av Ourasi
Lenke til kommentar
Videoannonse
Annonse

Det fremkommer nå fra XS tråden at de tidligere IOMeter testene ser ut til å være alt annet enn Random, noe denne forteller mye om: http://www.xtremesystems.org/forums/showpo...mp;postcount=10 Ser vel ut som om det er en litt annen QD på Random testene, da de er betydelig dårligere enn QD#64 i AS SSD, men det ser litt mer "menneskelig" ut nå....

Hverken AS SSD eller IOMeter Random R/W matcher E slik jeg tolker det, faktisk veldig langt unna på Random Write, undres hva poenget var med de to første IOMeter testene.... :cry:

 

Bildene av Benchene AS SSD og IOMeter 4kb Random Read/Write er klippet fra XS tråden:

post-72177-1257456469_thumb.jpg

post-72177-1257456505_thumb.jpg

post-72177-1257456513_thumb.jpg

Endret av Ourasi
Lenke til kommentar

Jeg så det nå nylig og skjønner ikke helt hva han har gjort i de første testene.

Han kan vel ha kjørt 100%read og ikke 100% random.

(har ikke iometer tilgjengelig så jeg får ikke sjekket valgene)

 

Resultatene ser nå ut til å være dårligere enn på X25-E på alle punkter, bortsett fra i ATTO :)

 

Har du prøvd ATTO med QD 10 på Intel?

Lenke til kommentar

Og ATTO diagrammet Ourasi akkurat postet viser i klartekst at Intel x25 gjør alt arbeid som 4KB blokker. Den eneste grunnen til at de større blokkene har litt høyere sekvensiell ytelse er fordi de 10 blokkene i disse størrelsene kan stripes over flash kanaler og gi høyere mettningsgrad. Dette er noe jeg har mistenkt lenge, men dette bildet satt spikeren i kista.

 

Dette er sansynligvis tilfellet for x25-M også, siden de bruker samme kontroller. Noen som vil ta på seg en atto med QD=10 på x25-M?

 

Dette betyr også man kan ha så liten RAID stripe man gidder på x25-M så lenge RAID kontrolleren takler det og stripe/enheter ikke blir under 4KB uten å miste sekvensiell ytelse.

 

EDIT: dette ser også ut til å være tilfellet for SandForce's SLC utgave. QD=10 gir ikke full metting av de 16 flashkanalene ved 4KB blokker. Hadde de hatt QD >= 16 hadde nok 4KB vært ganske nære maksimal sekvensiell hastighet.

Endret av GullLars
Lenke til kommentar

Jau, små striper har lite negativ konsekvens på Intel, faktisk er vel 16kb stripe den som har gitt best "opplevd" ytelse på raid.

Uansett, følger IOMeter resultatene enn så lenge, og holder meg på 128kb, men det er så lite som skiller, at man kan velge fritt egentlig...

Lenke til kommentar

Jeg postet en litt utviddet teori rundt dette her i SSD-tråden for de som er interresert.

 

RAID med x25-M vil kunne oppnå høyere ytelse på små blokker ved lavere QD om man kjører liten stripe. Om man spesifiserer stripa til 4KB * #SSDer (16KB for 4 stk) så vil man oppnå optimalt med IOPS ved lavest mulig QD og bare ofre rundt 25% leseytelse og 10-15% skriveytelse fra maks mulige båndbredde. (muligens ikke så mye engang)

EDIT: dette forutsatt at RAID kontrolleren klarer å holde unna :p

Endret av GullLars
Lenke til kommentar

Da ble CDM straks litt mer interessant :)

 

Har lastet den ned og prøver snart på noen maskiner.

 

edit: X25-E som OS, brukt noen måneder (ICH10R, X58)

post-137664-1257554707_thumb.jpg

(ikke store forskjellen fra Ourasi's som vel er uten OS?)

 

Vertex 250 FW 1.41GC (ICH, Dell Latitude E6400)

post-137664-1257547751_thumb.png

 

Skaleringen på write er i praksis 0.

 

X25-M OS single og brukt (P55)

post-137664-1257549162_thumb.jpg

Endret av Anvil
Lenke til kommentar

Den der var ikke mindre enn sweet ourasi, og den ga skikkelig gode resultater også.

x25-E klarer tydeligvis 99% av skrivebåndbredden som 4KB random, alså bedre resultat enn du fikk med IOmeter. 204MB/s er jo faktisk over 50k IOPS!

 

Denne ser ut til å ha potensialet til å være en perfekt enkel og god benchmark, med unntaket at den bare tester over 50-1000MB av lagringsmediet da, men for en kjapp sjekk går det helt fint så lenge det ikke er noen kontroller med cache tilstede.

 

Jeg hadde ønsket meg et trinn til mellom QD=4 og QD=32 for dybdeanalyse av enhetene, men det kan vi jo teste med IOmeter. Det er jo ikke noe vits for alle å teste det hele tida.

 

Vi må prøve å få tatt en dybdeanalyse av alle SSDene som er vanlige etter hvert, jeg blir opptatt ut uka som kommer og får litt fri etter det før eksamensøvingene begynner.

Endret av GullLars
Lenke til kommentar

Jau, CDM gikk fra kjapp, enkel og nokså uinteressant til kjapp, enkel og veldig interessant. Og ja, jeg har også registrert i IOMeter at QD#32 gir litt høyere resultater, dog ikke mye. Hadde de slengt på QD#64 så hadde vi jo hatt den komplett...

Men okke som, E grisebanker M i raid på skriv så det synger etter :thumbup:

Lenke til kommentar

Enten på mandags ettermiddag eller til neste helg vil jeg nokk kjøre en test på Mtron 7025 32GB singel og RAID-0, Vertex 30GB singel og RAID-0, og Velociraptor singel fra AMD SB650(?). Får se om jeg nøyer meg med Crystal og IOmeter, eller om jeg flesker til med ATTO og HDtune/tach også.

[OT]

Holder på med en litteraturoppgave i fysikalsk kjemi nå som skal leveres på mandag, og rettes innen fredag om den ikke blir godkjent på første forsøk, så jeg blir litt mindre aktiv her i helga, men kommer innom når jeg har matpause ol.

[/OT]

 

EDIT: om jeg ikke tar feil blir resultatene i IOmeter maks ved QD=32 siden NCQ på x25-M støtter 32 kø dybde. Jeg vet ikke om 32 er standarden for NCQ, men det kan virke sånn. Samsungs IOPS går jo i dass ved QD høyere enn 32 (eller var det 64?), mens indilinx klarer seg greit.

Endret av GullLars
Lenke til kommentar

Skal bli artig å se hvordan Mtron takler høyere QD :thumbup:

 

PS: Spanet en hau av kinesiske kråketegn sider for denne versjonen av CDM, og det kan godt hende det blir færre varianter på slipputgaven, for ser en alfa med kun QD#32 inkludert.. Men, nå har vi denne utgaven på forumet, og kan godt bruke denne permanent som bench om release ikke er like bra...

 

Tipper det blir litt å fylle ut i listene etterhvert når jeg sletter gamle CDM og legger denne til :innocent:

Lenke til kommentar

QD (Queue Depth) er rett og slett en kø hvor "lagringsenheten" samler opp kommandoer (lese og skriveoperasjoner) og kjører disse fra køen.

Jo høyere (lengre) kø en SSD kan håndtere desto mere kan man belaste den uten at man opplever at maskinen "fryser".

For å illustrere dette litt ekstremt blir det slik at hvis SSD'en ikke kan håndtere en slik kø av utestående kommandoer vil man oppleve stuttering/"maskinen stopper opp".

Endret av Anvil
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...