Gå til innhold

Areca 1680ix-12 (Seagate SAS Battleship 1GB/s +!)


Anbefalte innlegg

Se hvor mange IO's du får på de random-testene. Denne testen vil vise mer av den reelle ytelsen til arrayet.

Jeg har ingen tester av dette direkte på et array (lokalt), men fra en vmware gjest, med vmware esx + iscsi (1x gigabit nettverk) så får jeg rundt 4000 IOs på de random-testene. Husk at dette er via iscsi, ikke lokalt.

Enig med lohelle her, det er random tester med IOmeter som vil vise deg reell ytelse fra raidet ditt. Bandwidth sier bare hvor fort du får kopiert filer, eller ved annen spessiell workload som er sekvensiell. Det er på random workloads som lagring blir flaskehalsen.

 

4000 IOPS, ved hvilken blocksize og queue depth var det lohelle? og var det read, write, eller mixed?

 

Mine 2 Mtron SSD klarer ca 10.000 random read IOPS @ 4KB, og 1500 random write IOPS @ 4KB. Og det er fra hovedkortets integrerte SATA kontroller på et 790FX, 650SB.

 

 

Jeg så du hadde postet PCmark 05' score der som du linket til Nizzen, fine tall. 45.72 MB/s i XP startup er vell nesten like mye som jeg får tror jeg. Og 20.38 MB/s general usage er ca 1/3 av det jeg får hvis jeg ikke husker feil. Ikke hold meg til disse tallene, skal benchmarke når jeg kommer tilbake til Trondheim.

Lenke til kommentar
Videoannonse
Annonse

Som sagt så er jeg ikkje så veldig opptatt av IO egentlig. Kjører ikkje databaseserver eller webserver fra allbruksmaskinen min.

 

Jeg prioriterer max hastighet, noe som er fryktelig greitt når jeg kopierer og flytter noen 100 GB med data om gangen.

 

Blir jo spennende å se hvordan 4-6 stk SSD oppfører seg på kontrolleren min også da :)

 

Nå må jeg lære meg programmet IOmeter :)

 

Resultat av IO meter:

Er dette resultatet?

post-42975-1231257371_thumb.jpg

post-42975-1231259229_thumb.jpg

Endret av Nizzen
Lenke til kommentar

Det ser sånn ut ja, men jeg er en smule skeptisk til "total I/O's per second" resultatet ditt... 51k IOPS er ganske mye mer enn 10 SAS disker kan klare, så da har du fått en del cache hits. Hvis jeg ikke tar feil kan en SAS disk klare ca 450-500 IOPS maks med 64+ QD og NCQ. Og "average I/O response time" 0,27ms tyder også på at det er cache du har lest fra.

"Maximum I/O response time" på 43ms virker derimot som et realistisk tall på worst-case responstid på en SAS disk i en raid array.

"Total MBs per second" på ca 1600MB/s vil bety at alle 10 SAS diskene dine leste med 160MB/s ved peak, hvis dette ikke er et cache tall. Men etter det jeg kan huske så skal SAS disker klare dette.

 

Selv om det sansynligvis er noen tall her som er fra cache så er det veldig imponerende tall hvis du faktisk får disse i real-life situasjoner.

 

Vet du om du har noen mulighet for å deaktivere caching? Og hadde du gidde å lagt ut et SS av "Access Specifications" og "Test Setup" fanene?

 

EDIT: kanskje lohelle kan gi tips til instillinger for IOmeter?

Endret av GullLars
Lenke til kommentar

Nizzen:

Om du nå brukte den icf-filen jeg linket til, kan du kjøre de to random-testene? (nummer 2 og 3). 100% read viser lite om real life.

 

Husk at når du kopierer til og fra partisjoner på samme array så får du automatisk noenlunde høy IO (du har nok ikke i nærheten av denne hastigheten ved kopiering av store mengder data internt i arrayet)

 

edit: det er bare å åpne den filen jeg linket til fra programmet, så får du opp 4 tester (velg de under en av fanene der) som er aktuelle å teste.

 

GullLars:

blocksize er 8 Kb (IOmeter) og queue depth i vmware er default innstilling for sw iscsi (32 er det vel)

 

Driver å sliter litt med rr load balance for iscsi'en.. men egentlig så trenger jeg ikke dette så lenge IO'en er bra (hoster servere).

 

edit: sjekket resultatene nå, og det ser ut som jeg hadde ca 4500 IOs på random-testene. (som nevnt med IOMeter og den icf-filen jeg linket til tidligere i tråden, inne i en VM hostet på VMware ESX server 3.5 med 1 Gbps link til iscsi san)

Endret av lohelle
Lenke til kommentar

Håper på å få tak i Windows Server 2008 R2 snart!

 

Some of the features of Windows Server R2 include improved web application platform, enhanced virtualization and consolidation capabilities, reduced power consumption, streamlined management with new set of management tools, decreasing boot time, improved efficiency of I/O operations, improved speed of storage devices
:woot:

 

Edit: Nå skal Raid-5 testes med 10 disker :)

Endret av Nizzen
Lenke til kommentar

btw: er ikke maks båndbredde pr pci-express lane 256 MB/s? Så du er faktisk nesten oppe i max speed for 8x pci-expressen da. Det viser jo at dette er en kontroller med muligheter.

Jeg er spent på hastigheten i RAID 5 og RAID 6. Men prøv å få med en random-test da.. :)

Lenke til kommentar

Nice. Bra tall du fikk i raid-5 der, gode nok til at du vil gå for det tror jeg. Skal du teste raid-6 også?

Fant forresten link til en ny 100GB SLC SSD fra samsung som kanskje kunne vært noe for å teste hva raid kontrolleren din takler ;) men de blir kanskje for dyre :p

http://www.samsung.com/us/business/semicon....do?news_id=971

 

230MB/s les, 180MB/s skriv, 25k les IOPS, 6k skriv IOPS. Det er ca 50 ganger mer les og 10 ganger mer skriv IOPS en SAS diskene dine klarer, og med 1/50 av responstiden ;)

Endret av GullLars
Lenke til kommentar

Veldig bra resultater og tidligere i tråden linket jeg jo til Raid5 og Raid6 resultater og alle var meget bra. Kontrolleren er rett og slett lynrask på tøffere Raid håndtering. Anbefaler ellers kun Raid6(mot 5) på mer enn 6 disker og veldig store volumer.

 

Det er bare prisen på 11.000,- som er skremmende for en hjemmebruker hehe.

Endret av Theo343
Lenke til kommentar

Windows Server 2008 R2 VS Vista 64

 

Raid-5 med 10 15k.5 disker.

 

Trodde ikkje at raid-5 kunne bli noe raskere enn det jeg fikk med Vista 64, men der tok jeg skammelig feil :D

Server 2008 R2

post-42975-1231543650_thumb.png

Vista 64

post-42975-1231543740_thumb.jpg

 

WTF?! :dribble:

 

Tror jammen med jeg må ta en Raid-0 omtest med R2 :ph34r:

Endret av Nizzen
Lenke til kommentar

Jeg har litt lyst til å se hvordan denne kontrolleren vil håndtere 4+ OCZ Vertex i raid-0 jeg... Med 5 stykker skal du få 1000MB/s les og 800MB/s skriv, muligens mer siden dette er en high-end kontroller og specs ofte blir satt litt lavere enn hva SSDene kan levere for å gjøre opp for vanlige hovedkorts SATAkontrollere.

 

Hvor mange porter er det egentlig på kortet?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...