Populært innlegg Nizzen Skrevet 8. januar 2009 Populært innlegg Del Skrevet 8. januar 2009 (endret) RAID for dummies Denne guiden er todelt, det vil si at vi har en del for de som har bare hørt uttrykket RAID og aldri visst hva det var, og en del for de kan mer og kanskje vil ha litt mer detaljert info angående RAID slik som forskjellige oppsett og hastighetsforskjeller. Guiden er skrevet av 007CD og Nizzen, sistnevnte er spesialist på hardware RAID og har bidratt spesielt med hastighetstester. Jeg (007CD) har lånt bilder fra Wikipedia siden jeg føler at disse er enkle å forstå. Nå som de fleste formaliteter er unna veien så bryter vi rett på sak. Hva er RAID? RAID høres ut som noe tøft etter bokstavsuppen den serverer, om det er så veldig tøft vet jeg ikke men det er i allefall moro og nyttig. RAID står for 2 typer engelske forkortelser, Redundant Array of Independent Discs eller Redundant Array of Inexpensive Discs. Den enkle og korte forklaringen er at det er 2 eller flere disker som for operativsystemet er koblet sammen for å gjøre data sikrere mot datatap eller for å øke ytelsen. Jeg skal også senere nevne JBOD (Just a Bunch Of Discs) selv om dette ikke helt er RAID relatert så har den ett visst slektskap til RAID, dette skal jeg forklare ved de forskjellige RAID nivåene. RAID er dog ikke en løsning for backup, spesielt ikke om du vil gardere deg mot virus, uheldig sletting av data eller at huset ditt brenner ned og tar med seg data, er du ikke bekymret for slikt så KAN RAID brukes som backup erstatning. De 3 vanlige RAID nivåene: RAID 0 / Striping minimum antall disker: 2 maks antall disker som kan svikte i minimums konfigurasjon: 0 Dette er RAID for ren hastighet, her spres dataene over flere disker, altså en fil deles opp i cluster size som bestemmes når du lager RAIDet ditt og 128kb er ganske vanlig så en fil på 256kb blir da delt i to og spredt på 2 harddisker istedet for 1 slik som det er ved vanlig funksjon. Om du har flere disker i RAID 0 slik som Nizzen bruker for benchmarking så blir filen fordelt på antall harddisker uavhengig av cluster sizen, dog blir ubrukt plass i clustersize fortsatt «brukt» noe som da vil tilsi at du får plasstap på RAIDet. + Øker BÅDE lese og skriveytelsen på diskene. - Om en harddisk ryker så er alle data tapt og regnes som svært risikabelt, da spesielt om du har flere disker. RAID 1 / Speiling minimum antall disker: 2 maks antall disker som kan svikte i minimums konfigurasjon: 1 Dette er RAID som setter datasikkerhet i fokus, her speiles dataene til flere harddisker så alle diskene i RAID 1 har nøyaktig like data. Som en bonus får du øket leseytelse av RAID 1, og dette merkes ved generell PC bruk slik som booting av Windows og spill osv. + Øker leseytelsen + Gir datasikkerhet om en disk går tapt. - Får aldri mer plass enn en disk på arrayet, selv om du hadde lagt til 5 ekstra disker eller 1000. - Litt lavere skriveytelse enn vanlig harddisk utenfor ett RAID, dette er minimalt og du merker ikke noe til det i vanlig bruk men vil vises i benchmarker. RAID 5. minimum antall disker: 3 maks antall disker som kan svikte i minimums konfigurasjon: 1 Dette RAIDet er en slags miks mellom de to andre, men har ikke samme rå skriveytelsen som RAID 0 og krever en god del mer CPU kraft for å fungere. Grunnen til dette er fordi RAID 5 på 3 disker striper (Du kan også tenke RAID 0 på 2 disker om det er lettere å forstå)på 2 disker mens disk nr 3 inneholder paritet, dette kan beskrives å være en slags hybrid data som kan ligne på data som finnes på begge diskene som er stripet. Problemet med en slik løsning er at det å «dekode» disse dataene til å matche de som var på den disken som feilet krever en god del CPU kraft sammenlignet med en ren backup på en annen disk. + RAIDet er feiltolerant for at en disk svikter. + Høyere lese og skriveytelse kontra enkeltharddisk - RAIDet gir ikke maks plass, her er det en taps prosent på 62% til paritet. - Høy overhead eller CPU forbruk om du vil, grunnet at paritets delen må beregnes / «kodes» for hver skriveoperasjon eller om det er en lesefeil så må den dekodes. JBOD. Ikke akkurat ett RAID nivå, denne ligner delvis på striping ved at den bruker flere disker og at de gir 100% plassutnyttelse. Men herifra forsvinner fordelene, dette fungerer som en omvendt partisjonerings metode over flere fysiske harddisker. Det vil si at du kan koble 1x 40Gb harddisk med en 120Gb harddisk og derifra få en partisjon på 160Gb for datalagring. Men med JBOD så finnes det ikke en sikkerhet, om en disk ryker i ett JBOD oppsett så forsvinner alle data som var på den disken og data som oppholdt seg delvis på begge diskene (Akkurat på slutten av 40gb disken og begynnelsen på 120Gb disken i dette eksemplet) Videre gir heller ikke JBOD noen form for ytelsesøkning så det forblir en slags omvendt partisjonering kan du si. Hvordan sette opp raid på hovedkortet ich9 og 10: Dette er oppsetting av 3 stk Vertex ssd. http://www.ocztechnologyforum.com/forum/sh...ead.php?t=52912 Endret 8. august 2009 av Nizzen 10 Lenke til kommentar
Nizzen Skrevet 8. januar 2009 Forfatter Del Skrevet 8. januar 2009 (endret) For å utvide et raid etter du har byttet disker (rekalkulere raid størrelse): F.eks ved Raid 1+0 Areca: -Logg inn på webgui. - Information -> Raid Set Hierarchy - Kopier Raid set navnet på det raidet du vil rekalkulere størrelse på. - Raid Set Functions -> Rescue Raid Set - I feltet "enter keyword" skriv RESETCAPACITY xxx (lim inn raid set navnet istedet for xxx) - Hak av for "confirm the operation" og trykk submit. Utvide volum. Etter at kapasiteten på raidsettet er rekalkulert: - Volume set functions -> Modify volume set. - Velg riktig volum - Skriv inn ny kapasitet på volum. - Hak av for "confirm the operation" og trykk submit. Kontrolleren vil da starte med å utvide volumet. Dette vil ta noe tid. Etterpå kan du utvide partisjonen i Windows disk management eller tilsvarende / 3.part for ditt operativsystem. Reboot hvis ikke windows registrerer utvidelsen. Orginal post: http://www.diskusjon...post&p=20377608 -------------------------------------------- Diverse linker: Areca 1880ix-24 Battleship! 2GB/s + http://www.diskusjon...owtopic=1255245 10x SAS VS 6x ssd: http://www.diskusjon...;#entry13521018 Den Store SAS tråden: http://www.diskusjon...howtopic=889419 Areca 1680ix-12 (Seagate SAS Battleship 1GB/s +!): http://www.diskusjon...owtopic=1056106 Areca 1680ix review: http://www.xbitlabs....c-1680ix16.html FC test: File copy test. http://www.diskusjon...=...&p=14180879 SAS expander: http://www.hardforum...d.php?t=1484614 Endret 3. april 2013 av Nizzen Lenke til kommentar
007CD Skrevet 8. januar 2009 Del Skrevet 8. januar 2009 Kort reservasjon her også... Lenke til kommentar
GullLars Skrevet 8. januar 2009 Del Skrevet 8. januar 2009 (endret) Reservasjon for SS og annet om raidet jeg har fra 790FX hovedkortet mitt, dette vil komme på mandag når jeg kommer hjem. Si fra hvis jeg skal fjerne dette nizzen Synes forresten det var på tide at denne tråden kom, håper på det kommer en sticky her og at vi kan få samlet opp diverse raid spørsmål. Og vi har fått rette mann til å ha denne tråden også, nå får du mulighet til å dele dine praktiske erfaringer og skryte av monsterkortet ditt (som en parentes, det burde også lages en egen sticky tråd om eksterne harddisker. Det har vært alt for mange like spørsmål om de i det siste) EDIT: Svar @ sudan2k og 007CD sine poster under: Pluss at dette forhåpentligvis blir en samletråd for FAQ om raid på dette forumet. Å linke til eksterne kilder med info om raid slik som wikipedia gjør heller ikke noe nei, og at det står tidlig i tråden er fint. Endret 8. januar 2009 av GullLars Lenke til kommentar
Gjest Slettet-t8fn5F Skrevet 8. januar 2009 Del Skrevet 8. januar 2009 Hvorfor finne opp kruttet på nytt? http://no.wikipedia.org/wiki/RAID http://en.wikipedia.org/wiki/RAID Lenke til kommentar
007CD Skrevet 8. januar 2009 Del Skrevet 8. januar 2009 Hvorfor finne opp kruttet på nytt?http://no.wikipedia.org/wiki/RAID http://en.wikipedia.org/wiki/RAID I sammenligning så finner vi opp C4'n her istedet for kruttet som Wikipedia har. Det betyr at vi skal samle litt mer og på norsk det som Wikipedia har. 2 Lenke til kommentar
Nizzen Skrevet 15. januar 2009 Forfatter Del Skrevet 15. januar 2009 Oppdatering i 1 post! Mere vil komme Takk til 007CD for fin guide Lenke til kommentar
Giallorossi Skrevet 15. januar 2009 Del Skrevet 15. januar 2009 Hvorfor finne opp kruttet på nytt?http://no.wikipedia.org/wiki/RAID http://en.wikipedia.org/wiki/RAID Fordi kruttet er dårlig formulert Veldig Fin Guide Nizzen! Lenke til kommentar
geir__hk Skrevet 15. januar 2009 Del Skrevet 15. januar 2009 (endret) Mitt lille bidrag: Raid 0+1 Kombinasjon av raid0 og raid1. Det betyr at man har to sett med stripede disker. Étt av settene er et speilbilde av det andre. Noen viktige egenskaper: 1 Minste antall disker: 4. 2 Tapsprosent: 50%. 4x 100Gb-disker gir 200Gb kapasitet. 3 DataSikkerhet: Én disk kan feile, og man kan redde sine data. 4 Ytelse: Samme som for raid0/stripe. 5 Tilgjengelighet: God. Windows støtter raid0+1 samt at de fleste kontrollerkort med 4 kontakter (sata) støtter raid0+1. På punkt 1 og 2 vil raid5 være bedre pga det sløser mindre med plassen. Punkt 3 og 4: Raid0+1 er verken bedre eller dårligere enn raid5. Når det kommer til r/w ytelse så er det i teorien slik at når antallet disker blir mange så bør raid5 være bedre, men tror ikke noen har fått testet dette ut ennå. En annen ting er at mange billige raid-kontrollere støtter raid0+1, men ikke raid5. Muligens fordi det er enklere å lage en en kontroller som støtter raid0+1 enn raid5. Vanlig windows støtter ikke raid5, man må kjøre en server-versjon for å ha støtte for raid5. Endret 15. januar 2009 av geir__hk Lenke til kommentar
GullLars Skrevet 16. januar 2009 Del Skrevet 16. januar 2009 (endret) Raid 0+1, (eller kanskje dette var raid 10? skal kunne takle at opp til ALLE diskene på den ene raid-0 kolonnen feiler så lenge alle på den andre forblir intakt. Hvis den samme disken feiler på begge raid-0 kolonnene samtidig vil data gå tapt. Raid 10 er lettere å dra siden dette ikke krever kalkulering av parity-data slik som raid-5 gjør eller 6 gjør. Teoretisk skal leseytelsen til hele raidet være antallet disker ganger leseytelsen til èn disk. Mens skriveytelsen teoretisk skal være skriveytelsen til til èn disk ganget med halvparten av antall disker i raidet. Raid-5 gir (teoretisk) både lese og skriveytelse som er antallet disker i raidet minus èn (til parity data) ganget med ytelesen til èn disk. Rett meg hvis jeg har forstått konseptet feil. EDIT: rettet en tull 007 charlie delta får rette meg og bre ut sine kunskaper, og så fjerner jeg dette når han har postet Den delen som kommer nå vil bli interresant for meg etter hvert, vurderer sterkt å få meg en lagrings-server med FTP host til sommeren/høsten. Endret 16. januar 2009 av GullLars Lenke til kommentar
007CD Skrevet 16. januar 2009 Del Skrevet 16. januar 2009 Nå som begynner delen er oppe så skal jeg se om jeg klarer å få satt av litt tid til den mer avanserte RAID delen blant annet de sære forskjellene på RAID 0+1 og RAID 10 for de er ikke like. Pluss at jeg skal ta med noen sære RAID nivå som få kjenner til slik som RAID 5EEE Lenke til kommentar
geir__hk Skrevet 16. januar 2009 Del Skrevet 16. januar 2009 Raid 0+1, (eller kanskje dette var raid 10? skal kunne takle at opp til ALLE diskene på den ene raid-0 kolonnen feiler så lenge alle på den andre forblir intakt. Hvis den samme disken feiler på begge raid-0 kolonnene samtidig vil data gå tapt.Ja, det er riktig. Hva angår raid6, så er vel det (hvis jeg ikke husker feil) stort sett samme som raid5, men dobbelt opp med paritetsdata, slik at dataene er intakte selv om 2 disker feiler samtidig. Og så ser det ikke ut til at hw-raid og software raid er forklart. Lenke til kommentar
007CD Skrevet 16. januar 2009 Del Skrevet 16. januar 2009 Raid 0+1, (eller kanskje dette var raid 10? skal kunne takle at opp til ALLE diskene på den ene raid-0 kolonnen feiler så lenge alle på den andre forblir intakt. Hvis den samme disken feiler på begge raid-0 kolonnene samtidig vil data gå tapt.Ja, det er riktig. Hva angår raid6, så er vel det (hvis jeg ikke husker feil) stort sett samme som raid5, men dobbelt opp med paritetsdata, slik at dataene er intakte selv om 2 disker feiler samtidig. Og så ser det ikke ut til at hw-raid og software raid er forklart. HW og Software RAID kommer... Vi 2 deler guiden, det som er oppe nå er for de som er helt grønne på RAID. Og om vi begynner å snakke om HW og Software så blir de som oftest litt forvirret, de får svelge det der først så tar vi software og hardware RAID for de som er litt mer viderekommende i del 2 som kanskje blir min post eller noe, vi får se. Lenke til kommentar
Anv Skrevet 16. januar 2009 Del Skrevet 16. januar 2009 En liten korrigering vedr raid 5 RAID 5. minimum antall disker: 3 maks antall disker som kan svikte i minimums konfigurasjon: 1 ... - RAIDet gir ikke maks plass, her er det en taps prosent på 62% til paritet. Det korrekte er at man "taper" 1 disk i paritet, uansett antall disker. Paritet spres over alle disker så den er ikke lagret på 1 spesifik disk. Formelen for hva man sitter igjen med er n-1/n I et raid-5 med 3 disker (3-1/3=0,66) da taper man 33,33% I et raid-5 med 4 disker (4-1/4=0,75) da taper man 25% osv. Lenke til kommentar
007CD Skrevet 16. januar 2009 Del Skrevet 16. januar 2009 Her snakker vi om en 3 diskers RAID konfigurasjon faktisk... Har tatt utgangspunkt i minimumskonfiger her da med unntak nevnt for RAID 0 for eksempel. Lenke til kommentar
kpolberg Skrevet 16. januar 2009 Del Skrevet 16. januar 2009 (endret) Linux Software RAID: Fordeler: Billig Kan flyttes helt uavhengig av hardware Ulemper: Noe lavere ytelse Ingen BBU RAID nivå støttet i Linux sin implementasjon: RAID0, RAID1, RAID4, RAID5, RAID6 og RAID10. Andre funksjoner: hot-spare online disk ekspandering "scrubbing" av disker Hvordan sette opp ett typisk RAID5 med 4 eller fler disker: Først opprett Linux RAID AutoDetect partisjonen på diskene som skal brukes. root@raid:~# cfdisk /dev/sd sda sda1 sda2 sdb sdc sdd sde Når alle diskene er satt opp med denne partisjonen så er det bare å lage selve raidet. Jeg har her satt chunk size til 256k, noe som ofte vil hjelpe på ytelsen hvis man jobber med store filer. --level=5 spesifiserer at vi ønsker raid5, mens --raid-devices spesifiserer hvor mange disker vi legger til i raidet. root@raid:~# mdadm --create /dev/md0 --chunk=256 --level=5 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 mdadm: array /dev/md0 started. Så for å sjekke at RAIDet faktisk fungerer: root@raid:~# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0] 25157376 blocks level 5, 256k chunk, algorithm 2 [4/3] [UUU_] [======>..............] recovery = 31.1% (2609168/8385792) finish=4.4min speed=21666K/sec unused devices: <none> Som man ser er linux i gang med en "rebuild", raidet er aktivt og kan brukes, men med noe redusert ytelse frem til alle diskene er synkronisert. Men før vi tar i bruk raidet, kan det være en fordel å legge til raid informasjonen i /etc/mdadm.conf(kan eventuelt ligge i /etc/mdadm/mdadm.conf litt avhengig av distro). root@raid:~# mdadm --detail --scan >> /etc/mdadm/mdadm.conf Forøvrig kan det være lurt å skifte MAILADDR i mdadm.conf fila, til en mailadresse som er i aktiv bruk, i tilfelle en disk skulle falle ut av raidet. Slenger med en liten ytelses test fra software RAIDet gjennom VMWare Server 1, som viser 285mb les, 196mb skriv og 146mb rewrite. Rimelig heftig for 4 stk virtualiserte disker. Version 1.03b ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP raid 1G 196169 47 146828 55 284158 93 +++++ +++ ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 4754 14 +++++ +++ 4745 14 4706 13 +++++ +++ 3212 9 raid,1G,,,196169,47,146828,55,,,284158,93,+++++,+++,16,4754,14,+++++,+++,4745,14,4706,13,+ ++,+++,3212,9 Ok, den så jo bare helt jævlig ut på forumet her, mene hvis du leter godt finner du nok tallene Neste leksjon OpenSolaris og ZFS. forøvrig ligger det endel ytelses tester både på hardware kontrollere og software raid på adressen under. http://wiki.smlug.net//wikka.php?wakka=BonnieBenchmarks Endret 16. januar 2009 av kpolberg Lenke til kommentar
GullLars Skrevet 25. januar 2009 Del Skrevet 25. januar 2009 (endret) Siden de fleste raid ekspertene jobber med denne tråden, og det er et passende sted å ha dette på, så tenkte jeg at jeg skulle spørre her. Jeg skal kjøpe 2 raid kontrollere for testing av SSD. Èn kontroller i prisklassen 3000-5000 med PCIe x4 eller x8, og èn kontroller med PCIe x1 til under tusenlappen. Formålet og bruken for 4x/x8 kontrolleren skal være å gi maks IOPS og båndbredde for bruk med SSD i raid-0 (og muligens raid-5, ikke viktig). Maks båndbredde skal helst være opp mot 800MB/s så det kan testes 3 SSD i raid-0 uten å treffe taket, og gjerne litt over så den kan teste 4. Den må ha 4 porter, kan gjerne ha 8. Og den skal kunne støtte windows XP, Vista, og W7 (og helst også linux). (Aller helst støtte Vista og W7 "out of the box"). De jeg hadde i tankene var Rocket Raid 3520/22, og Adaptec 5805, eller tilsvarende. Formålet og bruken for x1 kontrolleren er å kunne ha en enkel eller 2 SSD i raid-0 uten å begrense skrive eller lesehastighet slik som noen sørbroer eller integrerte raid kontrollere kan gjøre. Jeg har ikke noe stort problem med dette selv, men det er fint å kunne demonstrere for andre der ute med Intel ICH 8/9/10 (eller eldre hovedkort som støtter PCIe) hvordan resultatet blir på et billig alternativ. Den må støtte XP, Vista, og W7, og helst også linux. Jo mindre/enklere drivere det er å installere for windows jo bedre. Jeg håper på et noenlunde raskt svar, siden jeg skal bestille deler denne uka. EDIT: begge kortene må støtte boot (alså kunne ha OS installert og kjøre dette fra array) Endret 26. januar 2009 av GullLars Lenke til kommentar
Ueland Skrevet 26. januar 2009 Del Skrevet 26. januar 2009 Hvorfor skal du plent ha en svindyr kontroller og resten billige? Har forøvrig satt opp et SW-RAID i Ubuntu med SATA-kontrollere på PCIeX4-porter, har ikke fått kjørt benchmark på RAIDet enda, men tipper jeg får gjort det snart. Forrige RAID jeg kjørte på vanlige IDE-kontrollere ga en resync hastighet på type 14MB/s, mens dette RAIDet ga en resync hastighet på 94MB/s, så er litt spent på hastigheten jeg kan tyne utav det. Lenke til kommentar
GullLars Skrevet 26. januar 2009 Del Skrevet 26. januar 2009 (endret) Jeg skal ha et "svindyrt" kort for å vise benchmarks av hva entusiaster kan forvente av diverse SSD de tenker på for større raid med vill fart, og et billig kort for å vise hva folk flest kan forvente hvis de vil ha SSD til en grei penge på et hovedkort som ikke er glad i SSD fra sørbrua. Svindyrt i entusiast-sammenheng er sånn som nizzen har, SAS raid kort til godt over 10.000 Glemte forresten i posten over at begge kortene må støtte boot. Edit: Grunnen for at jeg skal kjøpe disse kortene er at jeg vil gjøre benchmarks av SSD/HDD for hardware.no hvis jeg får det til å funke tilfredsstillende. Hvis ikke så har jeg fått meg litt utstyr som jeg kan bruke uansett Endret 26. januar 2009 av GullLars Lenke til kommentar
guttorm Skrevet 26. januar 2009 Del Skrevet 26. januar 2009 (endret) Lurer på å oppgradere mine hardisker, kjører raid WD 150GB raptor i raid 0 atm. Tenkte først og kjøpe et par brukte 150 GB for å spe på i raid oppsettet, usikker hvor stor boost dette gir? Senere har Velociraptorene kommet på 74GB til ca 1400 kr. 2 sånne eller flere i raid 0 kunne også vert et alternativ. Men da bør jeg selge de 2 150GB jeg har for å forsvare investeringen. Til slutt er det jo SSD som kommer for fullt, selv om jeg føler teknologien ikke er helt moden enda. Noen som har en annbefaling hva jeg bør gå for? Trives forøvrig veldig godt med Raid 0, skjelden disk trøbbel. Og om noe skulle gå galt er det sikkert på sinn plass med en formatering uansett. Hva med å Legge til litt hvordan man aktiverer Raid i operativsystemer og hovedkort Nizzen? Endret 26. januar 2009 av guttorm Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå