Gå til innhold

Raid 5 i praksis


Anbefalte innlegg

Hei!

Kjenner til teorien bak Raid 5. Har nå noen spørsmål om hvordan dette fungerer i praksis:

 

1) På hvilken måte får man beskjed hvis en disk har tatt kveld? Lager man et slags nummerert system, slik at man vet hvilken disk det er snakk om?

 

2) Hvis en disk har tatt kveld, fungerer det da sånn at man slår av maskinen, bytter den defekte disken og starter opp igjen? (Har bare hørt hvordan dette fungerer med hotswap)

 

3) Hvor lang tid har man på seg for å bytte ut en defekt disk? Helt til neste disk ryker?

 

4) Jeg spekulerer på å investere i en slik løsning, og foreløpig har jeg sett meg ut HighPoint 1820, og kanskje 4/5 disker på 200-250GB i første omgang. Hvis jeg lager ett array med dette, kan jeg da senere koble flere disker til kontrolleren og lage et nytt array med disse, eller må jeg formatere alt og lage ett array med alle diskene?

 

5) Hvis f.eks. hovedkortet ryker, kan jeg da flytte kontrolleren (med diskene tilkoblet selvsagt) til et annet hovedkort uten å miste data?

 

6) Hvis HighPoint-kontrolleren ryker - kan jeg da erstatte den med en lik (fungerende) kontroller uten å miste data?

 

7) Til dere som har Raid 5: Har dere operativsystem på egen disk - som er koblet til kontrolleren på hovedkortet? Hva skjer hvis OS-disken tar kveld? Kan man enkelt og greit installere OS'et på nytt igjen, så koble til raid-kontrolleren uten å ha mistet data i raid-oppsettet?

 

Mvh

Vegard

Lenke til kommentar
Videoannonse
Annonse

1. SATA-kanal eller SCSI ID. Hvordan du får beskjed er vel opp til OS'et.

 

2. Med RAID-5 kan du miste en disk og fortsette uten problemer (går da ut i fra at hardware takler eventuelle fysiske feil). Vanligvis vil man da ta ned maskinen snarest mulig og bytte ut den som feiler. Det er også vanlig å ha en "hot spare", dvs en disk som ikke brukes før en som er med i RAID5 arrayet feiler. Da hopper "hot spare" inn og tar over. Man kan da i teorien miste to disker før man absolutt må ta ned maskinen og bytte de ut.

 

3. Se 2.

 

4. Legge til flere disker til et array er teknisk ganske vanskelig. Du kan kanskje flytte et array over til et annet større et, men da må du ha dobbelt opp med disker. Så ja, du må nok skape arrayet på nytt og dermed miste all data. Planlegger du litt smart så slipper du jo det :)

 

5. Så lenge den nye kontrolleren bruker samme metadata, og ingen konfigurasjon er onboard så ja.

 

6. Se 5.

 

7. Så lenge det er hardware RAID kan du miste hvilken som helst disk. For OS'et er arrayet 1 fysisk disk. Kjører du software RAID må bootloaderen støtte RAID og installeres på hver disk. Jeg har satt opp noen software RAID5

under Linux, og da setter jeg opp root/boot som RAID1 og en stor PV som RAID5.

Lenke til kommentar

Mine erfaringer med 3ware 7506 og 9500S:

 

1. Det dukker opp en melding i raidoppsettets administrasjonsprogramvare. Programvaren er webbasert slik at den er tilgjengelig fra hvilken som helst maskin i nettverket. Får også tilsendt e-post når det skjer noe.

 

2. Jeg måtte sette i gang gjenoppbyggingen av raidoppsette via administrasjonsprogrammet. Jeg tror at gjenoppbygningsprosedyren varierer litt fra produsent til produsent.

 

3. Det må gjøres før neste disk ryker.

 

4. Det varierer fra produsent til produsent. ”Online capacity expansion” betyr som regel at denne funksjonaliteten er støttet. Sjekk manualen til kontrolleren du vurderer å kjøpe.

 

5. Ja, så lenge feilen ikke berører kontrollerkortet eller diskene.

 

6. Ja, så lenge feilen ikke berører diskene.

 

7. Jeg har OS på egen disk tilkoblet hovedkortet utenom raidkortet. Jeg har ikke hatt problemer med å finne igjen raidoppsettet etter reinstallasjon av OS. Det eneste som er nødvendig er installasjon av drivere.

Lenke til kommentar
1) På hvilken måte får man beskjed hvis en disk har tatt kveld? Lager man et slags nummerert system, slik at man vet hvilken disk det er snakk om?

 

4) Jeg spekulerer på å investere i en slik løsning, og foreløpig har jeg sett meg ut HighPoint 1820, og kanskje 4/5 disker på 200-250GB i første omgang. Hvis jeg lager ett array med dette, kan jeg da senere koble flere disker til kontrolleren og lage et nytt array med disse, eller må jeg formatere alt og lage ett array med alle diskene?

 

5) Hvis f.eks. hovedkortet ryker, kan jeg da flytte kontrolleren (med diskene tilkoblet selvsagt) til et annet hovedkort uten å miste data?

 

7) Til dere som har Raid 5: Har dere operativsystem på egen disk - som er koblet til kontrolleren på hovedkortet? Hva skjer hvis OS-disken tar kveld? Kan man enkelt og greit installere OS'et på nytt igjen, så koble til raid-kontrolleren uten å ha mistet data i raid-oppsettet?

Ser du har fått en del svar på spørsmålene, men skal prøve å gi noen litt enklere svar på noen av spørsmålene.

 

1) 2220 har hvertfall egne LEDs pr disk (2 LEDs pr kanal, en for status, en for aktivitet). Administrasjonsprogrammet til kontrollern vil også kunne gi beskjed om feil på disk.

 

4) Som andre nevner, ville nok lagt i 500,- mer og kjøpt 2220.

 

5) ja, men pass på at diskene blir koblet tilbake på samme port som de satt i tidligere. Er en del kontrollere som er veldig sære på dette.

 

7) Jeg har en egen scsi-disk til OS. Hvis OS-disken min dør, så er jeg bare pent nødt til å bytte disken og reinstallerer OS og programmer. Når du setter opp et array på en hardwarekontroller som f.eks 1820 eller 2220 så har du kort og godt laget deg en stor virtuell harddisk. Så lenge du ikke gjør noe med det oppsettet (i RAID-kontrollern) så oppfører arrayet seg som en hvilken som helst helt vanlig harddisk.

Lenke til kommentar

jeg går mye i de samme tanker... jeg har sett en del på pris for et slikt system. det som tydligvis er interessant med et raid 5 system er at en ikke mister data om en disk skulle ryke OG at en bare mister lagringsplass tilsvarende 1 av diskene. jeg kan ikke påstå å ha flere 100 GB med VIKTIG data - foreløpig har jeg ca. 10 GB med dokumenter og bilder som jeg vil ta vare på.

 

jeg kommer til å ta vare på en del musikk og film med tiden og det er greit å ha det på raid 5 - spesiellt med tanke på at det koster ikke mer å ha det i raidet en det koster å ha det på disk uten redundans.

 

det hadde vært fint med en raid kontroller med ”Online capacity expansion”, men når jeg ser hva det koster i forhold til en highpoint 1640 med 4 kanaler lurer jeg på om det er den rette strategien. kanskje det er bedre å fylle opp denne med 250GB disker. når jeg trenger mer plass, vill sikkert ikke en ny kontroller (eller onboard raid 5) + 4 store diker koste all verden. kanskje dette er bedre enn å satse på å utvide raidet med 250-300GB disker (om noen år vil dette ikke hjelpe stort).

 

bare noen taker på saken fra min side.....

 

ps - siden dere har forstått at jeg er kiip på pengene - er det noen som har erfaring med softraid/win os raid 5?

Lenke til kommentar

Bare til info; om man har tenkt å kjøre SATA-RAID på en desktop maskin så er det nok smartere med RAID-1. Dette tilbyr høyere grad av sikkerhet, er raskere og mindre komplekst. Har du behov for mye plass så bare kjøp større disker. RAID5 er mest brukt på SCSI system der svære disker er meget dyre, og man sparer på å bruke flere mindre disker.

Lenke til kommentar

kan du begrunne påstanden om at raid 1 er sikkrere en raid 5? begge systemene er redundante.

 

jeg ser at mean time to failure (MTF) for 1 disk er mindre i raid 5 enn i raid 1 da MTF for en disk i arrayet er (MTF for 1 disk)^(ant. disker).

 

eller noe...

Endret av bjorngb
Lenke til kommentar
Bare til info; om man har tenkt å kjøre SATA-RAID på en desktop maskin så er det nok smartere med RAID-1. Dette tilbyr høyere grad av sikkerhet, er raskere og mindre komplekst. Har du behov for mye plass så bare kjøp større disker. RAID5 er mest brukt på SCSI system der svære disker er meget dyre, og man sparer på å bruke flere mindre disker.

Du har et minus ved RAID1 og det er at du har ingen sjekk som gjøres. Skapes det en feil (på f.eks partisjonstabellen) på "master"-disken vil denne feilen speiles over på den andre. Dette vil ikke skje i RAID5 da dette er spredd over flere disker med paritet.

 

Hvis du ønsker 1TB disk med sikkerhet kommer du nok billigst unna med 5x 250gb disker i RAID5 enn med 4x 500GB disker i RAID1+0

 

RAID 1 er så godt som alltid den dyreste løsningen.

Lenke til kommentar
1) 2220 har hvertfall egne LEDs pr disk (2 LEDs pr kanal, en for status, en for aktivitet). Administrasjonsprogrammet til kontrollern vil også kunne gi beskjed om feil på disk.

 

7) Jeg har en egen scsi-disk til OS. Hvis OS-disken min dør, så er jeg bare pent nødt til å bytte disken og reinstallerer OS og programmer. Når du setter opp et array på en hardwarekontroller som f.eks 1820 eller 2220 så har du kort og godt laget deg en stor virtuell harddisk. Så lenge du ikke gjør noe med det oppsettet (i RAID-kontrollern) så oppfører arrayet seg som en hvilken som helst helt vanlig harddisk.

1) 1820(A) har også to led per disk, men du må koble til lysdiodar sjølv. Om ein disk skulle finne på å feile vil windows-programmet eller kontroller-BIOS vise kva disk..

 

7) Eg anbefaler eigen disk til OS. m du har HW-raid, og OS-disken tilter, så byter du den ut, installerer os, og du har tilgang til RAID-disken(e) etterpå. Intet problem..

Lenke til kommentar
kan du begrunne påstanden om at raid 1 er sikkrere en raid 5? begge systemene er redundante.

 

jeg ser at mean time to failure (MTF) for 1 disk er mindre i raid 5 enn i raid 1 da MTF for en disk i arrayet er (MTF for 1 disk)^(ant. disker).

 

eller noe...

Det er mindre komplekst. Færre ting kan gå galt, enkelt og greit. Det yter også bedre enn RAID5, så det er jo det klare valget for en desktop-maskin.

 

Du med den partisjons-tabell teorien, det samme vil jo selvsagt skje med et RAID5....

Lenke til kommentar

3. Det stemmer at du har til neste disk ryker på deg for å skifte disk, men pga nedsatt ytelse bør det gjøres så fort som mulig.

 

Og ellers,

Ikke vurder softwareraid til en arbeidsstasjon, det tar en god del ressurser.

 

For ytelse burde du vurdere Raid 10/Raid 1+0, ca like raskt som Raid-0 på både lesing og skriving men dyrt, må ha feks 4stk 500GB disker for å få 1TB. Raid5 er oftest raskere på lesing enn raid 0 og kan være raskere enn raid 10, men intensiv skriving til diskene er tregere enn enkel disk og raid1. Sekvensiell skriving er ikke så verst på Raid5, feks hvis du kopierer en stor fil. Men når masse små-skriving skal skrives til forskjellige steder på disken blir det dårlig, det må da leses fra alle diskene og paritetsinformasjon må oppdateres basert på innlest data.

Feks pagefil og OS bør ikke ligge på Raid5, hvis du har penger bruker du fire disker i raid10 til systemdisk i tillegg til en større raid5 array for video osv.

 

Bra detaljert info om raid 10/01:

http://www.pcguide.com/ref/hdd/perf/raid/l...tLevel01-c.html

Lenke til kommentar

Testa med noken disker i går i raid 5 på Intel matrix raid. Måtte jo seffølelig teste kva som skjedde når 1 disk døde på seg. Kobla derfor i fra ein disk. (slo av maskina når eg kobla den fra) Når eg da starta opp pc' igjen stod raid biosen noken sekunder lengre enn normalt og på raid arrayet stod det degradert.

 

Når eg kom inn i Windows spratt intel softwaren opp og sa at det var eit problem med raid arrayet, og 30at eg måtte skifte ut ein disk. Eg kopierte nå noken filer til / fra disken.

 

 

raid.JPG

 

 

Så langt funka det bra!

 

 

Så må man gjenoppbygge arrayet, det skjedde heilt automagisk. Kobla til disken igjen, biosen stod eit par sek lengre, og denne gangen stod det Rebuilding... Windows starta og eg fekk beskjed om at raid arrayet blir gjennoppretta.

 

 

 

Det gjikk også fint... den brukte ca 3.5 timer på og gjennoppbygge eit array på 830 gb (4x300gb)

 

raid2.JPG

 

Og vips var dataene trygge igjen!

Lenke til kommentar
  • 2 uker senere...

Er en noen dager siden tråden var aktiv, men jeg kom over den når jeg søkte etter Sata 2 støtte for min HighPoint 1820 kontroller.

Tenkte jeg kunne skrive litt om min erfaring med Highpoint 1820 (ikke a), som jeg har hatt i godt over 1 år nå.

Jeg kjører den på en linux filserver som lagrings disker. Det står 5 x 160GB disker, +3 single disker, noen Sata og noen IDE med konverter. Måtte patche kjernen selv for å få linux kjernen min til å ta kontrolleren men etter det funker det helt supert. Lese/skrive ytelse når alle disker er inne: over 20/25MB pr sek, (disken på maskinen jeg tester mot klarer ikke mer). Prosessor belastning med alle disker OK er ikke målbar, maskina står og som brannmur, ruter, epost server osv, og ligger normalt på under 2% CPU load. Med en disk ute klarer den ca 5MB pr sekund i skriving og lesing, (merker ikke noe når vi kjører film eller mp3 fra server mens en disk blir tatt ut), prosessor belastningen er godt over 20%, men det betyr ikke noe.

Dersom en disk faller ut, så sender kontroller programmet til Highpoint ut epost, kontrolleren piper, men alt funker helt greit. Tar jeg ut to disker skrur den av de andre diskene og setter jeg da inn disken igjen er alt OK.

En rebuild tar ca 4 timer på en 1Ghz AMD gjennom linux kontroller programmet, men over 30 timer gjennom bios på kortet. Jeg bruker kontroller programmet siden jeg da kan bruke maskinen samtidig.

Er veldig godt fornøyd, men jeg får ikke en Sata2 diske til å funke på den. :-(

Har ikke våget å oppgradere bios på kontrolleren, før jeg har tatt en skikkelig backup av alle bildene våre (over 100GB). Bestiller en 200GB disk nå som blir backup mens jeg oppgraderer bios på Raid5 i håp om at den tar Sata2 disken. Det hjalp ikke å flytte jumper på disken slik at den stod i Sata1 only.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...