Gå til innhold

SSD-benche tråden: Info og Diskusjon, Tweaking og Benchmarks av SSD


Ourasi

Anbefalte innlegg

Videoannonse
Annonse

Noen interessante kjøringer med Vertex 2 på ICH

 

Det er da single, 2R0, 3R0 og 4R0 som er kjørt.

 

AS SSD

 

post-137664-1282767363,6929_thumb.png post-137664-1282767368,9663_thumb.png

 

post-137664-1282767375,0863_thumb.png post-137664-1282767382,5837_thumb.png

 

CDM 0-Fill

 

post-137664-1282767463,7142_thumb.png post-137664-1282767471,1785_thumb.png

 

post-137664-1282767480,8832_thumb.png post-137664-1282767490,7586_thumb.png

 

CDM default

post-137664-1282767574,4434_thumb.png post-137664-1282767589,1895_thumb.png

 

post-137664-1282767596,9143_thumb.png post-137664-1282767605,7337_thumb.png

 

IOmeter kjøringer

noen foreløpige resultater på LSI 9211 i sw raid

Random read 4KB 147.278 iops

Random write 4KB 154.952 iops

Workstation 87.879 iops

 

Det var alt foreløpig.

Endret av Anvil
Lenke til kommentar

Hadde du gidde å kjørt en 4KB random read QD 1-8 (eventuelt 1-32 med korte runs om du gidder) lineær stepping for 1-4R0 for både ICH og 9211? Jeg har litt lyst til å sette opp et par grafer og sammenligne litt med annen data jeg har.

EDIT: og en 4W QD 1-8 lineær run også for effektiv QD 4-32?

Endret av GullLars
Lenke til kommentar

Hadde du gidde å kjørt en 4KB random read QD 1-8 (eventuelt 1-32 med korte runs om du gidder) lineær stepping for 1-4R0 for både ICH og 9211? Jeg har litt lyst til å sette opp et par grafer og sammenligne litt med annen data jeg har.

EDIT: og en 4W QD 1-8 lineær run også for effektiv QD 4-32?

 

Har du noen IO meter tester til meg også?

 

 

 

 

 

Areca 1880 med 8x c300  :)

 

 

Lenke til kommentar

Har du profilen liggende?

 

Har nettopp reinstallert denne maskinen og har ikke fått kopiert inn alt enda.

(Kingston V-40'en gikk på en smell, var 7MB igjen :), funket etter en HDDerase)

Hmm sitter på tenker på hvorvidt det kan være lurt å sette opp Quotas på slike små OS disker. Har ikke fått somlet meg til å sette inn min v40 i en barebone ennå. Datterns og må gå igjennom alt hun skal ha med seg osv. haff hehe.

Endret av Theo343
Lenke til kommentar

Her er en config ;)

Denne ble noe minimalistisk i forhold til hva jeg har gjort tidligere.

4K RR QD 1-32 linear 1+4W.rar

1GB testfil (bare bytt starten fra 1 til et høyere tall om det brukes større cache, 2-4x cache)

9 sec run, 1 sec ramp

1W config = QD 1-32 (320 sec)

4W config = QD 4* (1-8) = 4-32 (80 sec)

 

Parameterne her vil gi tilnærmet nøyaktige svar, og ganske raskt, siden dette er read-only.

 

Vitsen med å ha både 1 worker og 4 workers er for å se om det er en CPU flaskehals for max iops (eller ved QD 32...).

Lenke til kommentar

Theo,

 

Jeg pleier å kjøre over-provisioning. (ikke allokere hele disken)

 

I tilfellet med V40en ble den ikke full, det skjedde noe i forbindelse med at jeg installerte Vertex 2 på maskinen.

Vertex 2 hadde konflikter med UD7 som jeg bruker og jeg mistenker at det var et problem relatert til dette.

Løsningen var å oppgradere bios på MB.

 

V40en var etter forsøket på booting helt borte, det som var igjen var en partisjon på 7MB.

Finner neppe ut av hva som egentlig skjedde men resultatet var HDDerase + reinstallering :)

 

Her er en config ;)

 

Kjører på 4R0 nå straks!

Lenke til kommentar

Om du ikke har OS på SSDene, og du har tid og ork, ville jeg satt pris på om du hadde kjørt configene (eller eventuelt bare 1W for de andre oppsettene) for 1-3R0 også. Jeg har nemlig litt lyst til å sette opp en graf for random read scaling på ICH og 9211 for 1-4R0 SF-1200. Jeg er spesielt interresert i IOPS+(IOPS/accesstime) for QD 1-10, og hvordan denne påvirkes av utviddelse av RAIDet. Det vil også være morsomt å sammenligne dette med Nizzen med 1-8R0 C300 på Areca 1880 (og muligens 1680?). Jeg har også tilsvarende tall fra Tiltevros og Mbreslin på LSI 9260.

Lenke til kommentar

0-Fill er noe de har lagt til som et ekstravalg i CDM. (finnes i Arkiv menyen)

 

Når man bruker 0/1-Fill skriver CDM bare 0 eller 1 til SSD'en, det normale er random data som ikke er komprimerbare.

(bare 0 eller 1 er svært komprimerbart og er optimalt for SF kontrolleren)

 

Standard vs 0/1 Fill gir da værste vs beste tilfelle på SF baserte SSDer, sannheten ligger en plass i mellom, vanskelig kar den SF kontrolleren.

 

Skal kikke på filene Nizzen :)

Du må bare prøve deg frem.

Lenke til kommentar

 

Tror det er et eller anna snedig, men dere kan jo se om det er noe ytelse i disse testene.

 

Det er noe galt som ikke er rett :)

 

Tallene er for lave!

 

Har du et screenshot av innstillingene for oppsettet av den virtuelle disken?

(hadde vært morsomt å sett den i tillegg til å kanskje se noe opplagt galt)

 

edit:

 

@GullLars

 

Her er 1-4R0 V2 60GB, som sagt det er noe med max responsetime, variabelt mao. (skal prøve på ICH i "morgen")

(filene inneholder både 1 og 4W)

Anvil_4K RR 1W QD1-32 linear_2R0_Vertex2_9211_swraid.zip

Anvil_4K RR 1W QD1-32 linear_3R0_Vertex2_9211_swraid.zip

Anvil_4K RR 1W QD1-32 linear_4R0_Vertex2_9211_swraid.zip

Anvil_4K RR 1W QD1-32 linear_single_Vertex2_9211.zip

Endret av Anvil
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...