Gå til innhold

HP-skepsis til SSD


Anbefalte innlegg

Det er snakk om pushing av installasjonsimages og applikasjonspakker, så det er relativt lite skriving å snakke om. IOPS er en stor flaskehals her, da dette vil skje på mange klientpc'er samtidig, men ikke nødvendigvis helt i sync. Ja, det er behov for mye plass.

Endret av JKJK
Lenke til kommentar
Videoannonse
Annonse

Jeg lurer på om vi hadde en kort diskusjon om det samme i høst...

Det kommer også ann på hvor stor båndbredde nettverket takler. Det er ikke noe vits i å ha et raid som kan levere 1000MB/s dersom du har 1Gbit nett f.eks. Etter du når nettverkets båndbredde blir det kun responstid som får noe å si, og masse IOPS vil være nødvendig for å nå nettverkets båndbredde. SLC gir normalt 2-3 ganger raskere responstid enn MLC. Hadde jeg vært deg ville jeg kikket på Mtron, Intel, og avhengig av budsjett og behov for kapasitet kanskje Vertex/Titan også. Det kan f.eks. være en idè å ha et raid-0 med 2-3 SLC for "hotfiles", små filer eller databaser som er veldig avhengig av responstid og IOPS, eventuelt oppdateringer og patcher. Og så ha resten på x MLC i raid-5 (eller 10, 6, eller 0... avhengig av sikkerhet).

Lenke til kommentar

Ja, vi hadde denne diskusjonen i høst! :)

 

Jeg endte opp med å "nettopp" (rett før jul, og siden har jeg vært sykmeldt med brukken ankel) gå for 6x 15krpm sasdisker. 2x system i raid1 og 4x i raid0 for pakkene som skal ut er planen å prøve.

 

Men i etterkant (serveren er ikke tatt ibruk enda grunnet min eminente sykmelding) har en annen kollega av meg snakket med folk som har prøv dette i praksis, og de roper IOPS. Vi valgte også å ikke få for noe særlig påkostet kontroller, da jeg var litt usikker på om sasraidene ville holde, jeg tenkte heller å da kjøpe kontroller etter behov senere (noe jeg tror var veldig lurt, siden behovet var, og enda ikke er kartlagt helt enda).

 

Så det er enda muligheter. Nettverket er greit nok, men kan og skal forhåpentligvis oppgraderes når denne boksen tas ibruk. Så jeg har faktisk ikke så veldig mye mer fornuftig å komme med enda desverre :(

 

Prisene på fornuftige SSD'er har jo også forandret seg kraftig siden i høst :)

Endret av JKJK
Lenke til kommentar
...en annen kollega av meg snakket med folk som har prøv dette i praksis, og de roper IOPS.

 

Så det er enda muligheter. Nettverket er greit nok, men kan og skal forhåpentligvis oppgraderes når denne boksen tas ibruk. Så jeg har faktisk ikke så veldig mye mer fornuftig å komme med enda desverre :(

Hvis du ikke vil ta dette som en åpen diskusjon kan jeg godt diskutere litt med deg på PM, eller hvis du vil kan vi lage en egen tråd i lagringsmedier for å få inspill fra fler raid eksperter.

For å kunne foreslå et konkret oppsett trenger jeg å vite GB størrelse og les/skriv mønster, belastning, hvor viktig oppetid er for diverse inndelinger, hva nettverket takler, og anntall av klienter og hva disse takler/krever. Og selvfølgelig busjett estimat.

Som konkret forslag:

2x SLC (/vertex?) SSD i raid-1 til OS for veldig sikker oppetid på serveren. (32-64GB?)

2-4x SLC eller høy-ytelse MLC SSD i raid-0 til "hotfiles", max IOPS/accesstime-bound data, aktive oppdateringer og patcher (går egentlig under hotfiles), databaser, og eventuell virtualisering. (64-256GB totalt?)

x antall MLC SSD i raid 5 (eller 0 dersom oppetid<ytelse og kontrollerbudsjett er smalt) for aktiv data som krever ytelse. (balanser mot SATA 7,2krpm etter budsjett og behov)

Og til slutt hvis det trengs noe bulk for data som kreves å være tilgjengelig på nettverket: x antall SATA 7200rpm disker i valgfritt raid som gir god nokk oppetid og kapasitet. (balanser mot MLC raid over etter budsjett og behov)

 

Dersom det over kombineres på riktig måte og kapasiteter vil serveren yte flere ganger bedre enn med et stort x^n 15k sas disker array. Om data som er på SATA diskene tar litt tid å servere når de blir forespørt en gang i blandt vil være neglisjerbart mot at hele nettverket øker et par størrelseordner i responsivitet.

Endret av GullLars
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...