Gå til innhold

SSD-benche tråden: Info og Diskusjon, Tweaking og Benchmarks av SSD


Ourasi

Anbefalte innlegg

Videoannonse
Annonse
Det er kanskje litt sent å si/spørre om på denne tida på en fredag, men det RAIDet du har postet resultatene av fra jobb JKJK, hvor mye cache har kontrolleren? Og forandret du på testlengden?

 

Jeg vil bemerke at en 1GB test lengde på et sånt array vil være unaturlig mye short-stroke, og om det har en større mengde cache kan det hjelpe å forklare hvordan du fikk over 2000 IOPS.

 

http://h18000.www1.hp.com/products/quicksp...a/12460_na.html

 

Mener det er denne. Vi har ikke kjøpt til noe extra minne til den, så vil tro den har 128MB Cache. Får ikke sjekket nøyaktig akurat nuh.

 

Har ikke forandret på testlengden eller noe annet.

Endret av JKJK
Lenke til kommentar

Forutsatt 128MB cache er testlengden akseptabel, men siden det er harddisker med 1200GB kapasitet til sammen og testen var på 1GB snakker vi seriøs short-stroking ;)

 

Her er et par grafer til, jeg byttet forresten verdiene på x og z for båndbredde diagrammet, så her kommer anvils på nytt med byttede akser.

 

Anvil 9260 2R0 x25 båndbredde

post-163450-1264787852_thumb.png

 

JKJK ICH9R x25 IOPS

post-163450-1264787892_thumb.png

 

JKJK ICH9R x25 båndbredde

post-163450-1264787921_thumb.png

 

Jeg jobber nå på å sette sammen JKJKs båndbredde diagram med Anvils for å sammenligne èn x25-M G2 160GB fra ICH9R med 2R0 x25-M G2 160GB fra LSI 9260-8i.

 

Og forresten anvil, jeg tviler sterkt på at 9260 har 512KB cache :innocent:

Lenke til kommentar

Da lister jeg den som 128MB cache JKJK.

 

Her er en sammenslåing av båndbredde-grafen postet for anvil og deg over. Det tok meg litt tid siden jeg måtte lage nye tabeller, og stokke om på rekkefølgen av blokkene for å få samme block størrelse ved siden av hverandre.

Man ser da singel x25-m først og så 2R0 for hver blokk størrelse bakover.

0,5KB JKJK, 0,5KB Anvil, 1KB JKJK, 1KB anvil, osv.

Det kan ta noen sekunder før man ser hva grafen her beskriver ordentlig, men prøv å følge radene og kolonnene og se 2 nabo-blokkstørrelser av gangen så burde det komme fort.

post-163450-1264790092_thumb.png

 

Oppsummert vinner èn x25-M på ICH9R frem til 8KB blokker og QD 32. Etter det tar LSI 2R0 av grunnet 2 SSDer, og enda mer pga cache på halvparten av testfila ved QD 128 og 16KB og videre.

Lenke til kommentar

Jeg prøvde meg på et annet perspektiv på Anvil vs JKJK saken, men det tok ganske lang tid å sette opp. Jeg prøver meg frem hvordan det blir best for meg å organisere tabellene så det skal gå raskere når jeg skal lage mange grafer og diagrammer.

 

EDIT: her er den

post-163450-1264793316_thumb.png

Endret av GullLars
Lenke til kommentar

Da kommer de siste diagrammene fra anvils RAID:

Average accesstime med block og QD. På bilde 1 er QD x-aksen, på bilde 2 er QD z-aksen.

1.post-163450-1264797144_thumb.png

2.post-163450-1264797158_thumb.png

Max accesstime (all over the place!), samme oppsett som average accesstime.

3.post-163450-1264797276_thumb.png

4.post-163450-1264797301_thumb.png

 

Neste jeg går i gang med er tilsvarende for JKJKs x25-M, og deretter tror jeg at jeg tar et par harddisk-saker for sammenligning.

Lenke til kommentar

Seriøst? :ph34r:

Du har hengt med oss i SSD-trådene i et år nå...

 

Queue Depth, også kjent som "Outstanding IOs" og QD, er en kø av dataforespørsler mot disk. En slik kø kan holdes av lagringsenheten dersom den støtter "Native Command Queuing" (NCQ), og/eller OS. NCQ har en begrensning på 32 forespørsler i køen i spesifikasjonen, som vil si om QD/32 er større enn antall enheter vil OSet holde resten av køen. RAID kontrollere f.eks. kan også holde kø som er lenger enn lagringsenhetene støtter internt.

For å kunne benytte kø i det hele tatt må enheten støtte NCQ, og være i en konfigurasjon der dette er aktivt (AHCI eller RAID).

 

Her kommer screenshots for average accesstime og max accesstime fra JKJKs x25-M:

post-163450-1264800265_thumb.png

post-163450-1264800282_thumb.png

 

JKJK har mye mindre spikes enn anvil, men accesstime øker betydelig for QD 64 og 128.

Lenke til kommentar

Jeg holder på og kjører enda en test med samme konfig som i går men denne gang bruker jeg Direct IO.

Den jeg postet for en stund siden var med Cached IO.

(kjører i øyeblikket 47 av 64)

 

Den nye firmwaren har betydelig bedre iops ved QD > 2-3 men dårligere ved QD < 2-3 litt avhengig av block size ser det ut som.

(ved 2 stk SSD vel og merke og de er sikkert litt slitne etter mange måneders bruk :))

 

edit:

Ser at JKJK's SSD har høyere max aksesstid med 1 stk SSD.

Vi får se hva som skjer når jeg putter på flere.

Jeg tror dette er uungåelig når NCQ er med i bildet.

 

Random_Read_0_5_64kb_exp2_QD1_128_v4_dio.zip

Endret av Anvil
Lenke til kommentar

Hehe GullLars.

Joda, jeg hadde en viss anelse, og det var ca som jeg hadde forestilt meg. Jeg spør heller uansett for å være sikker.

 

Jeg har tilgang til en god del intel-ssd'er, men ikke ingen dyptgående kunnskap på langringsfronten. :) Det betyr jo ikke at man ikke kan ha det gøy, og bidra med de ressursene man her fordi! ;)

 

.... eller blir jeg utfryst nå? Gapestokk? :blink:

Endret av JKJK
Lenke til kommentar

Fint anvil :)

 

Jeg kommer nok til å poste noen diagrammer av mine egne Mtron i marra også.

 

Jeg får se om jeg lager noen 2D grafer etterhvert ved bestemt block størrelse eller QD. Her kommer 4KB graf for alle QD, 16KB, og 64KB graf for alle QD. Tenker også jeg lager QD1, QD4, QD8, og QD32 for alle block size.

Grafer er mye enkelere å se på når man sammenligner mange serier, men jeg kjenner ikke til noen måte å lage de oversiktlig i 3D :p

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...