GullLars Skrevet 6. januar 2009 Del Skrevet 6. januar 2009 Se hvor mange IO's du får på de random-testene. Denne testen vil vise mer av den reelle ytelsen til arrayet.Jeg har ingen tester av dette direkte på et array (lokalt), men fra en vmware gjest, med vmware esx + iscsi (1x gigabit nettverk) så får jeg rundt 4000 IOs på de random-testene. Husk at dette er via iscsi, ikke lokalt. Enig med lohelle her, det er random tester med IOmeter som vil vise deg reell ytelse fra raidet ditt. Bandwidth sier bare hvor fort du får kopiert filer, eller ved annen spessiell workload som er sekvensiell. Det er på random workloads som lagring blir flaskehalsen. 4000 IOPS, ved hvilken blocksize og queue depth var det lohelle? og var det read, write, eller mixed? Mine 2 Mtron SSD klarer ca 10.000 random read IOPS @ 4KB, og 1500 random write IOPS @ 4KB. Og det er fra hovedkortets integrerte SATA kontroller på et 790FX, 650SB. Jeg så du hadde postet PCmark 05' score der som du linket til Nizzen, fine tall. 45.72 MB/s i XP startup er vell nesten like mye som jeg får tror jeg. Og 20.38 MB/s general usage er ca 1/3 av det jeg får hvis jeg ikke husker feil. Ikke hold meg til disse tallene, skal benchmarke når jeg kommer tilbake til Trondheim. Lenke til kommentar
Nizzen Skrevet 6. januar 2009 Forfatter Del Skrevet 6. januar 2009 (endret) Som sagt så er jeg ikkje så veldig opptatt av IO egentlig. Kjører ikkje databaseserver eller webserver fra allbruksmaskinen min. Jeg prioriterer max hastighet, noe som er fryktelig greitt når jeg kopierer og flytter noen 100 GB med data om gangen. Blir jo spennende å se hvordan 4-6 stk SSD oppfører seg på kontrolleren min også da Nå må jeg lære meg programmet IOmeter Resultat av IO meter: Er dette resultatet? Endret 6. januar 2009 av Nizzen Lenke til kommentar
GullLars Skrevet 6. januar 2009 Del Skrevet 6. januar 2009 (endret) Det ser sånn ut ja, men jeg er en smule skeptisk til "total I/O's per second" resultatet ditt... 51k IOPS er ganske mye mer enn 10 SAS disker kan klare, så da har du fått en del cache hits. Hvis jeg ikke tar feil kan en SAS disk klare ca 450-500 IOPS maks med 64+ QD og NCQ. Og "average I/O response time" 0,27ms tyder også på at det er cache du har lest fra. "Maximum I/O response time" på 43ms virker derimot som et realistisk tall på worst-case responstid på en SAS disk i en raid array. "Total MBs per second" på ca 1600MB/s vil bety at alle 10 SAS diskene dine leste med 160MB/s ved peak, hvis dette ikke er et cache tall. Men etter det jeg kan huske så skal SAS disker klare dette. Selv om det sansynligvis er noen tall her som er fra cache så er det veldig imponerende tall hvis du faktisk får disse i real-life situasjoner. Vet du om du har noen mulighet for å deaktivere caching? Og hadde du gidde å lagt ut et SS av "Access Specifications" og "Test Setup" fanene? EDIT: kanskje lohelle kan gi tips til instillinger for IOmeter? Endret 6. januar 2009 av GullLars Lenke til kommentar
lohelle Skrevet 6. januar 2009 Del Skrevet 6. januar 2009 (endret) Nizzen: Om du nå brukte den icf-filen jeg linket til, kan du kjøre de to random-testene? (nummer 2 og 3). 100% read viser lite om real life. Husk at når du kopierer til og fra partisjoner på samme array så får du automatisk noenlunde høy IO (du har nok ikke i nærheten av denne hastigheten ved kopiering av store mengder data internt i arrayet) edit: det er bare å åpne den filen jeg linket til fra programmet, så får du opp 4 tester (velg de under en av fanene der) som er aktuelle å teste. GullLars: blocksize er 8 Kb (IOmeter) og queue depth i vmware er default innstilling for sw iscsi (32 er det vel) Driver å sliter litt med rr load balance for iscsi'en.. men egentlig så trenger jeg ikke dette så lenge IO'en er bra (hoster servere). edit: sjekket resultatene nå, og det ser ut som jeg hadde ca 4500 IOs på random-testene. (som nevnt med IOMeter og den icf-filen jeg linket til tidligere i tråden, inne i en VM hostet på VMware ESX server 3.5 med 1 Gbps link til iscsi san) Endret 6. januar 2009 av lohelle Lenke til kommentar
Nizzen Skrevet 6. januar 2009 Forfatter Del Skrevet 6. januar 2009 Western Digital 750gb SE i raid-0 på Areca'en Her tror jeg at det ikkje er mere å gå på på de 2 diskene Lenke til kommentar
GullLars Skrevet 6. januar 2009 Del Skrevet 6. januar 2009 Jepp, det ser ut som du får gitt de fritt spillerom. Den grafen viser maksfart 2 slike kan klare i raid-0. Lenke til kommentar
Nizzen Skrevet 6. januar 2009 Forfatter Del Skrevet 6. januar 2009 (endret) Håper på å få tak i Windows Server 2008 R2 snart! Some of the features of Windows Server R2 include improved web application platform, enhanced virtualization and consolidation capabilities, reduced power consumption, streamlined management with new set of management tools, decreasing boot time, improved efficiency of I/O operations, improved speed of storage devices Edit: Nå skal Raid-5 testes med 10 disker Endret 6. januar 2009 av Nizzen Lenke til kommentar
lohelle Skrevet 7. januar 2009 Del Skrevet 7. januar 2009 btw: er ikke maks båndbredde pr pci-express lane 256 MB/s? Så du er faktisk nesten oppe i max speed for 8x pci-expressen da. Det viser jo at dette er en kontroller med muligheter. Jeg er spent på hastigheten i RAID 5 og RAID 6. Men prøv å få med en random-test da.. Lenke til kommentar
Nizzen Skrevet 7. januar 2009 Forfatter Del Skrevet 7. januar 2009 Raid-5 resultat oppdatert i 1.post Mere kommer i kveld Lenke til kommentar
GullLars Skrevet 7. januar 2009 Del Skrevet 7. januar 2009 (endret) Nice. Bra tall du fikk i raid-5 der, gode nok til at du vil gå for det tror jeg. Skal du teste raid-6 også? Fant forresten link til en ny 100GB SLC SSD fra samsung som kanskje kunne vært noe for å teste hva raid kontrolleren din takler men de blir kanskje for dyre http://www.samsung.com/us/business/semicon....do?news_id=971 230MB/s les, 180MB/s skriv, 25k les IOPS, 6k skriv IOPS. Det er ca 50 ganger mer les og 10 ganger mer skriv IOPS en SAS diskene dine klarer, og med 1/50 av responstiden Endret 7. januar 2009 av GullLars Lenke til kommentar
lohelle Skrevet 7. januar 2009 Del Skrevet 7. januar 2009 ganske så imponerende raid-5 resultater dette. Har du noen resultater for skriving til diskene? Da må kontrolleren kalkulere mye mer. Lenke til kommentar
Nizzen Skrevet 7. januar 2009 Forfatter Del Skrevet 7. januar 2009 Glemte å skrive at det tok bare 48 minutter å bygge raid-5 med de 10 diskene. Rimelig raskt synes jeg! Lenke til kommentar
Theo343 Skrevet 8. januar 2009 Del Skrevet 8. januar 2009 (endret) Veldig bra resultater og tidligere i tråden linket jeg jo til Raid5 og Raid6 resultater og alle var meget bra. Kontrolleren er rett og slett lynrask på tøffere Raid håndtering. Anbefaler ellers kun Raid6(mot 5) på mer enn 6 disker og veldig store volumer. Det er bare prisen på 11.000,- som er skremmende for en hjemmebruker hehe. Endret 8. januar 2009 av Theo343 Lenke til kommentar
Nizzen Skrevet 9. januar 2009 Forfatter Del Skrevet 9. januar 2009 (endret) Windows Server 2008 R2 VS Vista 64 Raid-5 med 10 15k.5 disker. Trodde ikkje at raid-5 kunne bli noe raskere enn det jeg fikk med Vista 64, men der tok jeg skammelig feil Server 2008 R2 Vista 64 WTF?! Tror jammen med jeg må ta en Raid-0 omtest med R2 Endret 9. januar 2009 av Nizzen Lenke til kommentar
WheelMan Skrevet 10. januar 2009 Del Skrevet 10. januar 2009 (endret) .. Endret 10. januar 2009 av WheelMan Lenke til kommentar
ticalOne Skrevet 10. januar 2009 Del Skrevet 10. januar 2009 Neeej, hadde da for pokker ikke tenkt å skifte OS, men nå ble det jo med ett veldig aktuelt. Lenke til kommentar
Nizzen Skrevet 10. januar 2009 Forfatter Del Skrevet 10. januar 2009 Raid-0 Server 2008 R2 10x15k.5 @ raid-0 Average 998,5 MB/s So close! Lenke til kommentar
Anv Skrevet 10. januar 2009 Del Skrevet 10. januar 2009 "Short stroker" du diskene til 90% kommer du nok i mål. Imponerende ytelse var det uansett. 15k6 yter vel 30-35% mer i denne sammenhengen. Lenke til kommentar
GullLars Skrevet 10. januar 2009 Del Skrevet 10. januar 2009 Jeg har litt lyst til å se hvordan denne kontrolleren vil håndtere 4+ OCZ Vertex i raid-0 jeg... Med 5 stykker skal du få 1000MB/s les og 800MB/s skriv, muligens mer siden dette er en high-end kontroller og specs ofte blir satt litt lavere enn hva SSDene kan levere for å gjøre opp for vanlige hovedkorts SATAkontrollere. Hvor mange porter er det egentlig på kortet? Lenke til kommentar
WheelMan Skrevet 10. januar 2009 Del Skrevet 10. januar 2009 Er 16 porter, mener jeg å huske. Hadde vært kult med 16 Intel-SSDer eller noe ..eller 16 RAMdisks Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå