Gå til innhold

Ubuntu: Hvordan lage software Raid0 eller JBOD?


Anbefalte innlegg

Jeg har en maskin med følgende disker:

 

80 GB SSD

1,5 TB HDD

1,5 TB HDD

 

På SSDen har jeg installert Ubuntu 10.10. Harddiskene er tomme, men de skal bli husets backupmaskin (altså kopi av det som ligger lagret andre steder). Jeg ønsker å sette opp de to harddiskene med software JBOD eller Raid0 slik at de blir ett lagringsområde med 3 TB. Disken skal mappes fra andre Windows- og Ubuntumaskiner i huset. Første utfordring er å sette opp software JBOD eller Raid0. Hvordan gjør jeg det?

Lenke til kommentar
Videoannonse
Annonse

Jeg har alltid gjort dette under installasjon (usikker på om Ubuntu-installeren lar deg gjøre dette, men det er lett i Debian og Fedora).

 

Det er etter min oppfatning mye lettere enn å sette det opp manuelt i etterkant.

 

Siden jeg ikke har gjort dette manuelt (eller, ihvertfall ikke husker i detalj hvordan jeg gjorde det), så kan jeg ikke beskrive det så nøye.

 

Ihvertfall, for JBOD kan lvm løse problemet ditt.

For software RAID0 er mdadm tingen.

 

For mdadm må man ihvertfall lage en partisjon på hver disk av type "RAID Autodetect" (mener det er partisjonstype 0xFD).

 

Deretter mener jeg det står greit forklart i manualen til mdadm hvordan man oppretter et raid med level=0.

Lenke til kommentar

Personlig ville jeg aldri brukt raid0 som backup-løsning, da du har ingen "redundancy" dersom en disk skulle feile. Ville sterkt vurdert å skaffe en ekstra 1,5 TB disk og satt opp i raid5 eller tilsvarende (da vil du fortsatt få 3 TB lagringsplass, og det skal gå greit å bygge opp arrayet dersom en disk skulle feile).

 

Når det gjelder fremgangsmåten for å sette det opp ser det ut til å være dekket i ubuntu wikien: https://wiki.ubuntu.com/Raid

Jeg synes dog artikkelen var dårlig, denne på arch wikien forklarer hvert skritt mye bedre: https://wiki.archlinux.org/index.php/Installing_with_Software_RAID_or_LVM

 

Lykke til :)

Lenke til kommentar

Takk for tips Sokkalf. Jeg skal sjekke ut mdadm og lvm.

 

sablabra: Jeg satser på full redunsans og er fornøyd med sikkerheten ved å ha ting lagret på to steder samtidig (hver sin PC i samme hus, men jeg planlegger å flytte den ene hjemmefra til kontoret så jeg ikke mister begge kopiene dersom lynet slår ned eller huset brenner).

 

Å kjøre Raid5 på en eller begge stedene synes jeg blir overkill for mitt bruk. Skulle denne maskina mot formodning eksplodere så har jeg jo alt lagret på originalplassene uansett.

 

Tusen takk for linkene.

Lenke til kommentar

https://www.diskusjon.no/index.php?showtopic=1058413&view=findpost&p=12867174

 

=)

 

Forøvrig er det ofte en fordel å legge LVM oppå md devicen. og ikke bruke all plassen samtidig, selve filsystemet er det enkelt å utvide.

 

Eller du kan bruke http://romanrm.ru/en/mhddfs, den bruker begge diskene i ett slags jbod/raid0 hvor du fremdeles kan montere opp diskene enkeltvis og bare miste "halvparten" av dataene i tilfelle en av diskene skulle ryke.

Lenke til kommentar

Btrfs er suverent enklere enn LVM+mdam+XFS, med det meste av funksjonaliteten. Utrolig morsomt å følge med på mailinglisten til btrfs, der går det unna. Ved neste ubuntu tror jeg den kan friskmeldes også for profesjonelt bruk, med mindre man er svært konservativ.

Lenke til kommentar

For en backup server ville jeg _aldri_ brukt ett filsystem som ikke anses som prod klart. I tillegg virker btrfs foreløpig, som den kjipe lillebroren til ZFS.

 

EDIT: og jfs, xfs, ext3 er besteforeldre som snakker om hvor enkelt alt var før.

Endret av kpolberg
Lenke til kommentar

Rett fra en av ZFS utviklerne:

In my opinion, the basic architecture of btrfs is more suitable to storage than that of ZFS. One of the major problems with the ZFS approach - "slabs" of blocks of a particular size - is fragmentation. Each object can contain blocks of only one size, and each slab can only contain blocks of one size. You can easily end up with, for example, a file of 64K blocks that needs to grow one more block, but no 64K blocks are available, even if the file system is full off nearly empty slabs of 512 byte blocks, 4K blocks, 128K blocks, etc. To solve this problem, we (the ZFS developers) invented ways to create big blocks out of little blocks ("gang blocks") and other unpleasant workarounds. In our defense, at the time btrees and extents seemed fundamentally incompatible with copy-on-write, and the virtual memory metaphor served us well in many other respects.

 

In contrast, the items-in-a-btree approach is extremely space efficient and flexible. Defragmentation is an ongoing process - repacking the items efficiently is part of the normal code path preparing extents to be written to disk. Doing checksums, reference counting, and other assorted metadata busy-work on a per-extent basis reduces overhead and makes new features (such as fast reverse mapping from an extent to everything that references it) possible.

ref. http://lwn.net/Articles/342892/

 

Btrfs rules :new_woot:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...