j-- Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 clvn: for meg ser det ut som sde datt ut sist, så det er nok den jeg ville begynnt med. madadm --assemble --force burde gjøre susen, er du uheldig vil disken feile igjen. Det du eventuelt kan prøve er å ta dd fra sde over på en ny disk. 0 0 8 17 0 active sync /dev/sdb1 1 1 0 0 1 faulty removed 2 2 8 97 2 active sync /dev/sdg1 3 3 8 49 3 active sync /dev/sdd1 4 4 0 0 4 faulty removed 5 5 8 33 5 active sync /dev/sdc1 6 6 8 81 6 spare /dev/sdf1 Men forstår ikke helt at du har en "spare" og 2 "faulty" det burde vel tilsi at du skulle hatt en /dev/sdh inni der? /dev/sdf er den enheten som datt ut av systemet først, og ble lagt til via mdadm --add /dev/md0 /dev/sdf1 etter reboot. Da begynte mdadm å rebuilde mot 6/6, (med 5/6 aktive). Så hoppet enda en disk ut av raidet (/dev/sde?) og alt gikk ned grunnet 4/6 disker aktive i raidet. Vil derfor tro at /dev/sd{b,c,d,e,g} vil kunne utgjøre et 5/6 raid /m intakt data? Fortsatt forsøke en mdadm --assemble --force, eller kan jeg spesifisere hvilke disker som raidet skal startes med? Lenke til kommentar
Lycantrophe Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Hei. Har arch install klappet og klart /for det meste/ , men så har jeg kun lxde som DM og det er ganske "bart". Noen andre med arch her som kan gi tips om DM som er lettvekt og passer bra med maskineriet under panseret? -Balthy Bygge selv rundt openbox/en tiling? Lenke til kommentar
JohndoeMAKT Skrevet 8. februar 2011 Del Skrevet 8. februar 2011 Dagbladet om vedlikehold av GNU/Linux: «Linux vedlikeholder seg selv og trenger derfor lite manuelt vedlikehold. Systemet er heller ikke plaget med virus. Full harddisk kan derimot senke farten, så fjern programmer og filer du ikke bruker.» Lenke til kommentar
kpolberg Skrevet 9. februar 2011 Del Skrevet 9. februar 2011 Hehehe, for en normal "dødelig" kan nok det gjerne stemme... Lenke til kommentar
j-- Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 clvn: for meg ser det ut som sde datt ut sist, så det er nok den jeg ville begynnt med. madadm --assemble --force burde gjøre susen, er du uheldig vil disken feile igjen. Det du eventuelt kan prøve er å ta dd fra sde over på en ny disk. 0 0 8 17 0 active sync /dev/sdb1 1 1 0 0 1 faulty removed 2 2 8 97 2 active sync /dev/sdg1 3 3 8 49 3 active sync /dev/sdd1 4 4 0 0 4 faulty removed 5 5 8 33 5 active sync /dev/sdc1 6 6 8 81 6 spare /dev/sdf1 Men forstår ikke helt at du har en "spare" og 2 "faulty" det burde vel tilsi at du skulle hatt en /dev/sdh inni der? /dev/sdf er den enheten som datt ut av systemet først, og ble lagt til via mdadm --add /dev/md0 /dev/sdf1 etter reboot. Da begynte mdadm å rebuilde mot 6/6, (med 5/6 aktive). Så hoppet enda en disk ut av raidet (/dev/sde?) og alt gikk ned grunnet 4/6 disker aktive i raidet. Vil derfor tro at /dev/sd{b,c,d,e,g} vil kunne utgjøre et 5/6 raid /m intakt data? Fortsatt forsøke en mdadm --assemble --force, eller kan jeg spesifisere hvilke disker som raidet skal startes med? mdadm --assemble /dev/md0 --force /dev/sdb1 /dev/sdd1 /dev/sdc1 /dev/sde1 /dev/sdg1 did the trick Lenke til kommentar
Lycantrophe Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Jeg har et lite spørsmål. Skal så fort jeg får OS-disken min sette opp filserveren, og jeg står mellom tre valg: 1. Debian Squeeze med btrfs (2x2TB per nå, skal utvide senere) 2. Debian Squeeze med ext4/xfs (samme som over) 3. FreeBSD med ZFS. Jeg skal senere sette i to disker til (har plass til fem i kabinettet), tenkte å sette opp raid1 for fysisk redundans mot diskkrasj, samt ekstern backup (annen maskin 60 mil unna). Spørsmålet er da: Er btrfs modent nok til at diskene ikke vil ramle ned rundt ørene mine? Hvordan funker poolen i form av fysisk redundans om én disk skulle ryke? Gjelder det samme for ZFS? Setter pris på innspill. Lenke til kommentar
hernil Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Splittet ut en diskusjon til egen tråd Lenke til kommentar
Sokkalf™ Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 @Lycantrophe, les det som står på hovedsiden til wikien til btrfs, og gjør deg opp en mening om du vil stole på det. Personlig ville jeg gitt det litt mer modningstid. Spesielt med kernelen du får i Squeeze er det svært umodent. ZFS funker erfaringsmessig bra, både på Solaris og FreeBSD, men merk at det er sultent på RAM, spesielt på FreeBSD. Lett å fremprovosere en kræsj om du har for lite. Det du får i FreeBSD med ZFS er et filsystem som er særdeles enkelt å administrere, og et OS som ikke er fullt så enkelt. Hvis du er ute etter at det skal være enkelt, ville jeg valgt Debian, og satt opp mdadm+lvm med valgfritt filsystem under installasjon. Hvis du vil ha en utfordring ville jeg valgt FreeBSD+ZFS. Lenke til kommentar
Lycantrophe Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Utfordring ser jeg på som positivt, jeg er ute etter resultater. Jeg har 4gb ram, ville det holdt, tror du? Første prioritet er i grunn å kunne feede mediaboxen. Senere skal jeg utvide til andre ting (website, sftp-løsninger++, får se hvor mye tid som strekker til). Skal ta en titt på wiki-siden. Lenke til kommentar
rocknrolf77 Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Feilmelding wine spytta ut når jeg skulle åpne et bilde og hadde glemt å knytte filtypen til eog. Noen har tydeligvis problemer med å bestemme seg Lenke til kommentar
Sokkalf™ Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 (endret) @Lycantrophe: 4GB burde holde. FreeBSD 8.2 er i RC3-versjon og release er rett rundt hjørnet. Du kan installere RCen og bruke freebsd-update til å oppgradere til release når den kommer ut. ZFS skal være enda mer stabilt i 8.2, så vil tippe det er verdt det. Edit: Ved bruk av FreeBSD er håndboka essensiell, du finner mye nyttig info der til generell bruk av OSet. Til bruk av ZFS kan du gjerne supplere med dokumentasjon for Solaris o.l. @rocknrolf77: Windows i et nøtteskall det vel, wine gjør bare jobben sin Endret 10. februar 2011 av Sokkalf™ Lenke til kommentar
Balthier Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Feilmelding wine spytta ut når jeg skulle åpne et bilde og hadde glemt å knytte filtypen til eog. Noen har tydeligvis problemer med å bestemme seg LOL Lenke til kommentar
Lycantrophe Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Jeg er svært nysgjerrig på FreeBSD, men jeg må si jeg også har lyst til å snuse på Debian (aldri brukt distroen, men har sansen for konseptet + apt). Lenke til kommentar
The Crusher Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Noen som kan forklare meg hvorfor jeg ikke fikk logget meg inn på ubuntu 10.10 fra livecd? for å boote opp live systemet fra cd så kreves det vel ingen harddisk? Lenke til kommentar
Sokkalf™ Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Prøv begge da. Som ren filserver er FreeBSD knall. Det er når du begynner å legge inn tilleggsprogramvare Debian og apt er <3. FreeBSD ports er ikke så galt, men det blir mye kompilering. Lenke til kommentar
Lycantrophe Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 (endret) Er jo først når filsystemet er oppe og går, raid er satt opp etc. at det begynner å merkes. :o Jeg har mest erfaring med ext4. Hvordan er de andre (XFS, reiserFS spesielt, om jeg ikke misser) på større, stabil lagring? <10TB, disker i raid1. Endret 10. februar 2011 av Lycantrophe Lenke til kommentar
Sokkalf™ Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Over 10TB i RAID1? Da burde du vel isåfall gått for en RAID10-variant, eller RAID6..? Har hørt mye bra om XFS, men ext4 skal være stabilt og fint nå for tiden. Til slike mengder ville jeg personlig valgt ZFS, dog. Lenke til kommentar
Lycantrophe Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 (endret) Mindre enn 10! Gud så ubrukelig. Jeg har ikke merket noe negativt med ext4, men skal se litt mer på XFS og. Endret 10. februar 2011 av Lycantrophe Lenke til kommentar
j-- Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Pro tip, Ville ikke valgt XFS på 32bits arkitektur der du skal ha flere TB store volum. xfs_check liker ikke store filsystemer under 32bits, og avslutter med "out of memory". http://ruleant.blogspot.com/2011/01/xfs-check.html http://mesh.tistory.com/entry/Q-Why-does-xfscheck-say-out-of-memory Lenke til kommentar
Lycantrophe Skrevet 10. februar 2011 Del Skrevet 10. februar 2011 Skal kjøre 64bit, så jeg unngår vel problemet. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå