Gå til innhold

Server for nettbackup-tjeneste til venner og famile, med drive-pooling.


Anbefalte innlegg

Driver å stresser litt med å sette opp en backup-server her, hadde tenkt å sette opp en server basert på ymse reste-disker av diverse størrelse, der familie og venner kan laste opp og bruke som backup, men det er ikke så mange gode muligheter egentlig. Det er et behov at alle diskene lages som et stort volum, så jeg slipper å forholde meg til individuelle disker plassmessig. alternativene jeg har funnet er:

 

Unraid

 

Pluss: sikkert og greit oppsett

støtter pooling

valgfritt antall disker til redundans

Om redundansen skjærer seg og en disk dør så har man all data inntakt på inntakte disker.

 

Minus:

støtter ikke all hardware

lite egent for remote access, støtter ikke hamachi osv.

 

Windows Home server + Flexraid

 

Pluss: enkelt og greit oppsett

støtter pooling på fleksibel måte

valgfritt antall disker til redundans

Om redundansen skjærer seg og en disk dør så har man all data inntakt på inntakte disker. (?)

 

Minus:

Ikke real-time redundans (begrensing i flexraid)

Kun 10 brukere (egentlig en showstopper)

Dårlig ytelse med mange disker(?)

Akksesserer diskene for mye.

 

Server 2008 Spanned volumes + Flexraid

 

Pluss: Støtter all hardware og software som er relevant

Så mange brukere man vil

Enkelt oppsett såfremt ingenting skjærer seg

Fyller opp en disk før den begynner å skrive til neste(?)

Kan kjøre data recovery på resterende data om redundansen pluss en data-disk skjærer seg.

 

Minus

Ikke real-time redundans (begrensing i flexraid)

uvisst om man kan fjerne disker fra spanned setup uten å miste data om det er nok plass på resterende disker.

Uvisst hva som er resultatet om man rebuider en erstatningsdisk som er større enn den tapte disken.

Disker må legges til manuelt i det spannede settet.

Ytelse?

 

Ubuntu + LVM2 + Flexraid

 

Pluss: Så mange brukere man vil

halvenkelt oppsett såfremt ingenting skjærer seg

Kan fjerne disk fra det logiske volumet

 

Minus

Ikke real-time redundans (begrensing i flexraid)

Uvisst hvordan data blir fordelt utover diskene.

Uvisst om man kan kjøre data revovery på resterende data om redundansen pluss en data-disk skjærer seg.

Uvisst hva som er resultatet om man rebuider en erstatningsdisk som er større enn den tapte disken.

 

Noen som har noen innspill eller forslag? Det virker ikke som det er et alternativ som treffer helt 100% for meg dessverre. Jeg er litt usikker på om mine antakelser rundt linux-variantene da jeg ikke har så mye erfaring, spesielt med recovery, på disse systemene.

 

AtW

Lenke til kommentar
Videoannonse
Annonse
Forslag: zfs, enten via FreeBSD eller OpenSolaris.

Ulempen blir (selvfølgeig) at du kanskje må lære deg ett nytt os + zfs.

 

Problemet med ZFS er jo at jeg ikke få kjørt drive pooling? Enten det elelr så må jeg drive å dele opp ting i slices som passer sammen i størrelse, og det er jo tungvindt/umulig å få til på en effektiv måte.

 

AtW

Lenke til kommentar
Problemet med ZFS er jo at jeg ikke få kjørt drive pooling? Enten det elelr så må jeg drive å dele opp ting i slices som passer sammen i størrelse, og det er jo tungvindt/umulig å få til på en effektiv måte.

Joda, du kan bruke drive pooling i zfs også. Fra Wikipedia om zfs: "A zpool is constructed of virtual devices (vdevs), which are themselves constructed of block devices: files, hard drive partitions, or entire drives, with the last being the recommended usage.[7] Thus, a vdev can be viewed as a group of hard drives. This means a zpool consists of one or more groups of drives".

 

Men - jeg ville ikke gjort det.

Hvordan har du tenkt å sikre dataene dine dersom vdev'ene dine er en lapskaus av forskjellige komponenter?

Eksempel: du har en zpool som består av en vdev som er raidet, da har du ganske bra sikring mot at en disk feiler. Så legger du til en vdev til som bare er en single disk for å utvide zpool'en din. Noe senere så feiler denne disken. Vips, så har du mistet dataene som ligger på den.

 

Hvor mange forskjellige diskstørrelser har du i samlingen av gamle disker?

Jeg ville prøvd å gruppere tre og tre noenlunde like store disker, laget en raidz1 vdev av hver av dem, og så lagt disse vdev'ene til i en zpool. Og så ville jeg levd med at noe kapasitet gikk tapt dersom bare to av tre disker var like.

 

Merk: offisiell anbefaling fra Sun for raidz er å ha mindre enn ti disker per vdev, helst 6 - 8.

Endret av tingo
Lenke til kommentar

Diskene mine er 200, 250, 400, 500 og 750 i forskjellige antall. Problemet er jo som du er inne på, at jeg ønsker å ha redundans, jeg får ikke lagt et vdev med redundans uten at alle enheter i vdeven er like store (avt mister jeg svært mye kapasitet), jeg kan såklart lage mange vdevs av diverse type i samme zpool (går dette forresten, kan jeg legge en mirrored vdecv og en raid-z-vdev i samme zpool?), men det blir mye oi når diskene er så forskjellige i antall og størrelse. Et annet probleme er at ZFS ikke støtter shrinking enda (men det klarer man seg forsåvidt greit unna, bare litt strev). Systemene jeg har vist til i første post lar deg stort segg mikse og matche alle drev uavhengig av størrelse i et "raid", eneste kravet er at den største disken brukes til redundans. Det er et litt mer fleksibelt opplegg. Den vesentligste ulempen med solaris dog er at det ikke støtter så mye hardware, det er litt diverse oppsop av kontrollerkort det er snakk om, og såvidt jeg husker, støttet ikke solaris så mye av det.

 

AtW

Endret av ATWindsor
Lenke til kommentar
(går dette forresten, kan jeg legge en mirrored vdecv og en raid-z-vdev i samme zpool?)

ja.

Et annet probleme er at ZFS ikke støtter shrinking enda (men det klarer man seg forsåvidt greit unna, bare litt strev)

Hei - ikke utvid kravene dine nå! :-)

 

Systemene jeg har vist til i første post lar deg stort segg mikse og matche alle drev uavhengig av størrelse i et "raid", eneste kravet er at den største disken brukes til redundans. Det er et litt mer fleksibelt opplegg.

Og du har testet at "drive pooling" faktisk virker og gjør det du vil i disse systemene? Jeg er skeptisk til slike påstander fra produsenter av lagringssystemer, gang på gang viser det seg at reklamen ikke holder vann.

 

Den vesentligste ulempen med solaris dog er at det ikke støtter så mye hardware, det er litt diverse oppsop av kontrollerkort det er snakk om, og såvidt jeg husker, støttet ikke solaris så mye av det.

Det var derfor jeg forslo FreeBSD da. Ganske god støtte for kontrollerkort.

Lenke til kommentar
(går dette forresten, kan jeg legge en mirrored vdecv og en raid-z-vdev i samme zpool?)

ja.

Et annet probleme er at ZFS ikke støtter shrinking enda (men det klarer man seg forsåvidt greit unna, bare litt strev)

Hei - ikke utvid kravene dine nå! :-)

 

Systemene jeg har vist til i første post lar deg stort segg mikse og matche alle drev uavhengig av størrelse i et "raid", eneste kravet er at den største disken brukes til redundans. Det er et litt mer fleksibelt opplegg.

Og du har testet at "drive pooling" faktisk virker og gjør det du vil i disse systemene? Jeg er skeptisk til slike påstander fra produsenter av lagringssystemer, gang på gang viser det seg at reklamen ikke holder vann.

 

Den vesentligste ulempen med solaris dog er at det ikke støtter så mye hardware, det er litt diverse oppsop av kontrollerkort det er snakk om, og såvidt jeg husker, støttet ikke solaris så mye av det.

Det var derfor jeg forslo FreeBSD da. Ganske god støtte for kontrollerkort.

 

Hehe, sant, jeg skal ikke utvide kravene :)

 

Drivepooling fungerer fint i unraid og WHS ihvertfall, virker ganske greit, men de har som nevnt andre ulemper :(

 

Jeg skal se hva jeg finner ut om FreeBSD, vet du noe om ytelsen for ZFS der?

 

AtW

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...