Gå til innhold

RAID for dummies og viderekommende


Anbefalte innlegg

Videoannonse
Annonse

Grunnen til at eg meiner det er raskare er ikkje basert på syntetiske benchmarks, men at idag så blir ein ny standard tatt i bruk. https://en.wikipedia.org/wiki/NVM_Express

Uten å ha peiling på dette:

 

Støtter alle pci-e ssd baserte kort dette? Eller finnes dette tilgjengelig nå?

 

Til nå er detnesten bare IoExtreme slc gammel versjon som har insane lav latency. Dog sekvensiell ytelse er ikkje noe å hoppe i taket for.

 

Personlig har jeg både ssder og harddisker på raidkontroller. Det gir meg mest mulig ytelse. Mye cache hjelper også til på ytelse.

 

For de som ikkje har testa:Jeg får lavere med ssd på pci-e 3.0 kontroller vs pci-e 2.0. Gøy at det ikkje bare hjelper for høyere sekvensiell ytelse.

 

Synes det har vært kjedelig på ssdmarkedet lenge nå. Latency har ikkje vært prioritert desverre, mest bare krymping av produksjonsteknikk for å få billigere og litt større kapasitet ssder. Tilogmed enteprise ssder går litt av samme veien :(

Lenke til kommentar

Ikkje alle, men dei fleste støtter NVM Express. Nokre eldre kan oppgraderast med firmware. Til database så kan ytelsen fort bli 2x betre. Men NVM Express har ikkje verdi før det er heftig trafikk med fleire prosesser som kriger om IO. Redusert latency er det eg ser på som det området som bør bli forbetra, for der er vell ein hw controller som Areca betre?

 

ZIL til ZFS tene jo bare på latency...ikkje på sekvensiell ytelse eller antall iops.

Lenke til kommentar

Ikkje alle, men dei fleste støtter NVM Express. Nokre eldre kan oppgraderast med firmware. Til database så kan ytelsen fort bli 2x betre. Men NVM Express har ikkje verdi før det er heftig trafikk med fleire prosesser som kriger om IO. Redusert latency er det eg ser på som det området som bør bli forbetra, for der er vell ein hw controller som Areca betre?

 

ZIL til ZFS tene jo bare på latency...ikkje på sekvensiell ytelse eller antall iops.

 

Du kan jo mene at å redusere latency er vitsen med å sette SSDer i raid, for andre kan det like gjerne være økt transfer som er grunnen.

 

AtW

Lenke til kommentar

Julegaven til Nizzen fra Nizzen? :p

 

Dersom jeg skal kjøre 2 SSDer i RAID0, hvor viktig er det med cache på RAID kontrolleren?

 

Dersom du skal kjøre RAID-0 med 2 SSDer er valget av kontroller mer viktig enn om/hvor mye cache den har.

Mange RAID kontrollere er optimalisert for HDD, og bruker cache til å booste throughput mens latency økes litt. For harddisker er 0,1-0,2ms økt latency neglisjerbart, men for en SSD kan det gi en dobling av latency.

Cache er også viktigst dersom du har et lite sett med filer som brukes mye, eller du jobber på ting som hovedsaklig får plass i cache. Dersom cache også brukes til buffring kan det gi økt burst og sustained random write dersom SSDene du har valgt ikke er god på lav QD random write.

Random write buffring mister litt av fordelen sin om du sammenligner med intels egne SATA 6Gbps porter, som kan bruke litt av RAM som skrivebuffer til å kraftig øke random write til et nivå som bare high-end kontrollere ala Areca kan konkurrere med.

Cache og buffring betyr mest for andre RAID nivåer med paritet, som 5 og 6. Der trengs det for å holde latency lav for skriving og skrivehastigheten oppe.

 

Konklusjon: Dersom du bare skal ha 2 SSDer i RAID-0 og har hovedkort med Intel SATA 6Gbps gir det bare mening å kjøpe kontroller med cache dersom du går for high-end kontrollere (som Areca), og da hovedsaklig dersom arbeidet du driver med får hovedsaklig plass i cache, eller du ofte har bruk for høy write-burst. Jo bedre SSDer du bruker, jo mindre viktig er det med slik skrivebuffring. Dersom du hovedsaklig gamer og bruker PCen til kontorprogrammer og surfing ellers er ytelsesforskjellen mye mindre enn prisforskjellen mellom PCH og RAID kontroller med cache.

 

 

Du vil få mykje betre ytelse av å velja ein PCI-Express basert SSD løysning.

Grunnen til at eg meiner det er raskare er ikkje basert på syntetiske benchmarks, men at idag så blir ein ny standard tatt i bruk. https://en.wikipedia.org/wiki/NVM_Express

Ikkje alle, men dei fleste støtter NVM Express. Nokre eldre kan oppgraderast med firmware. Til database så kan ytelsen fort bli 2x betre. Men NVM Express har ikkje verdi før det er heftig trafikk med fleire prosesser som kriger om IO. Redusert latency er det eg ser på som det området som bør bli forbetra, for der er vell ein hw controller som Areca betre?

 

ZIL til ZFS tene jo bare på latency...ikkje på sekvensiell ytelse eller antall iops.

 

Dette kommer ikke an på om SSDen har PCIe tilkobling til PCen, men om den er native PCIe eller bruker SATA internt. Så langt jeg har sett er det FusionIO, Micron, Intel, og TMS som har slike SSDer, og bare Fusion-IO som har solgt det til forbrukere i form av ioXtreme. Som Nizzen nevner er det Fusion-IO's ioDrive med SLC som har vært det vi har ønsket oss når det gjelder PCIe SSDer. Problemet med Fusion-IO SSDer er at de ikke har vært bootbare i windows, og etterhvert har også SATA SSDer blitt raske nok til at forskjellen mellom dem og en ioXtreme ikke lenger er der for våre bruksområder.

 

Har du noen kilder som viser at NVM Express SSDer har blitt sluppet, kommer snart, eller at eksisterende PCIe SSDer (RAID på et kort) vil kunne konverteres til dette via firmwareoppdateringer?

 

Jeg kommer sannsynligvis til å kjøpe enten native PCIe eller NVMe neste gang jeg skal oppgradere lagring for OS. Inntil da kommer jeg nok til å beholde 2R0 Samsung 830 128GB fra X79s 6Gbps porter. Forskjellen i praktisk ytelse til mulige oppgraderinger har vært så liten at jeg heller har gått for andre oppgraderinger, som å bytte ut en av side-skjermene mine med en ekstra 27" Ultrasharp.

Endret av GullLars
Lenke til kommentar

 

Du kan jo mene at å redusere latency er vitsen med å sette SSDer i raid, for andre kan det like gjerne være økt transfer som er grunnen.

 

AtW

 

 

 

Du kan jo mene at å redusere latency er vitsen med å sette SSDer i raid, for andre kan det like gjerne være økt transfer som er grunnen.

 

AtW

Nei, raid hjelper på ingen måte mot latency. For med latency så er det ikkje snakk om å "lastbalansere" trafikk, men for å få kjappast mogleg svar tilbake.

Lenke til kommentar

 

 

Nei, raid hjelper på ingen måte mot latency. For med latency så er det ikkje snakk om å "lastbalansere" trafikk, men for å få kjappast mogleg svar tilbake.

 

Poenget er at du sier at det ikke er noen vits å sette SSD i raid (i en kontroller), fordi du ser latency som området som bør bli forbedret. Andre kan se det annerledes, feks ved å prioritere transfer.

 

AtW

Lenke til kommentar
  • 3 uker senere...

Krever "Areca ARC-1264il-12 12P (3 x 8087) SATA PCI-E 6GB/s" mye CPU power?

evnt. alternativ til noe billigere :p

 

Tenkte å bruke noen gamle deler til å lage server (ix-38 quad gt mobo)

WD Red i Raid 10? x3 (så totalt 12 disker etterhvert,starter med 4)

 

Kommer mest sansynlig til å bruke min nåværende PCIE SSD for OS, Linux kanskje?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...