Gå til innhold

Hvilke opperativsystem til hjemmeserver


Anbefalte innlegg

Den er riktig som den står, du må bare lese den i kontekst.

Trodde jeg uttalte meg krystallklart her. Støtten er ikke eksprimentell i SLES og Oracle, den er eksprimentell i Red Hat.

Er jo den konteksten som gir rom for tolkning, ikke sant? ;) Jeg trodde også at jeg var ganske klar, jeg _sa_ at både SLES og Oracle skriver "support/production", men tenkte på resten. La oss si f.eks, Debian, Ubuntu og Red Hat etc.

 

I jobbsammenheng bruker jeg Red Hat. Hjemme bruker jeg Kubuntu, og der har jeg så langt konvertert en maskin til btrfs, og vil ta de andre ved anledning.

Mhm, og Red Hat er en av de som fortsatt ser på Btrfs som eksperimentelt. Igjen, rom for tolkning. Vi blir nok ikke enige, men for egen del ser jeg ikke på et filsystem som fortsatt mangler en "stable release" som noe jeg vil bruke tid på.
Lenke til kommentar
Videoannonse
Annonse

Hmm, det var informativt. Stemmer det med checksums, det kom først i EXT4. Ellers har jeg efart i en mindre produksjonssetting at EXT3 klarte seg utrolig bra. Det var snakk om to problematiske disker i et raid-sett på et par TB som måtte tas ut med påfølgende omfattende korrupt filsystem. Må si jeg ikke hadde store forhåpninger, men etter en del timer med fsck var alt tilbake på plass og ikke noe data ble mistet. Ja, de hadde backup også men nedetiden var mest kritisk

Ext3 har vel aldri vært særlig populært for filserver, selv om nok mange brukte det rett og slett fordi det var standard filsystem i en rekke distribusjoner.
Jeg ser du nevner at det er stort sett "alle" bruker Unixsystemer til lagring i dag.
Må nok inkludere linux der, linux er svært vanlig til filserver.

Men jeg blir litt nysgjerrig, hvilke filsystemer velges når det er snakk om store mengder data kritiske data? ZFS? Er det noen statistikk på det?

ZFS har mange gode egenskaper, og blir gjerne brukt av de som kjører Solaris. For de som kjører linux, og satte opp sine filservere selv, var det rimelig standard med LVM (for live snapshotting) og XFS (for online resize og skalering), gjerne kombinert med hardware eller software raid. Google gikk sin egen vei (som de ofte gjør), og brukte ext2. De gikk en tid tilbake direkte over til ext4 etter å ha ansatt utvikleren Teodor Ts'o. I kjølvannet av det har ext4 fått både online resize og meget god skalering. De andre store (Facebook, Yahoo, Amazon osv.) bruker HDFS. Innen HPC bruker de store gjerne PanFS, mens mindre aktører gjerne bruker mer standard linux og nfs. Red Hat har så langt ikke vært veldig villige til å tilby clustrede filsystemer, selv om de har vært i utvikling en god stund. Med andre ord har du i dag mange muligheter alt etter behov.
Lenke til kommentar

Er det noe som tilsier at ntfs er utrygt og ustabilt? Kom gjerne med referanser. Ok, det mangler checksums og COW, kanskje det er ikke godt nok i alle tilfeller, men det er bare noen av egenskapene man vurderer ved valg av filsystem. Det kan godt tenkes at jeg ikke har nok erfaring med NTFS i så måte, men har i hvert fall aldri opplevd datakorrupsjon pga. filsystemet alene.

Lenke til kommentar

Er det noe som tilsier at ntfs er utrygt og ustabilt? Kom gjerne med referanser. Ok, det mangler checksums og COW,

Moroklumpen. Du summerer opp de to hovedegenskapene som gjør et filsystem trygt. COW er måten du kan gjøre metadata trygge på, dvs. at du i det store aldri får filkorrupsjon så lenge hardware funker. Det andre er checksum (en egenskap jeg glemte å nevne at også ext4 fikk med linux 3.5), som er måten du kan oppdage at et filsystem er korrupt, og avhengig av implementering og feil faktisk rette det.

Det kan godt tenkes at jeg ikke har nok erfaring med NTFS i så måte, men har i hvert fall aldri opplevd datakorrupsjon pga. filsystemet alene.

Det er ikke bare at ntfs mangler sikring mot korrupsjon, det mangler også evne til å oppdage at filer har blitt korrupte (checksum er eneste rimelig trygge måte å gjøre det på). Da hjelper det ikke engang med back-up eller redundans, hele dritten blir etterhvert korrupt. For å toppe det hele så har ikke ntfs funksjonalitet for å isolere korrupsjon, så du risikerer å miste hele jævla filsystemet. Ja, folk opplever dette. Du har en fundamental misforståelse, korrupsjon kan skyldes mange årsaker utenom filsystemet, men det er likevel filsystemet sin oppgave å ivareta dataene dine, og fortelle deg når ting ikke er bra. Endret av Del
Lenke til kommentar

Det var opprinnelig en kommentar til siDDIs, men here we go.

 

Ext3 har vel aldri vært særlig populært for filserver, selv om nok mange brukte det rett og slett fordi det var standard filsystem i en rekke distribusjoner.

Må nok inkludere linux der, linux er svært vanlig til filserver.

Ja, men også fordi Ext3 var gjennomprøvd og stabilt og til å stole på når f.eks. strømmen gikk og man ikke hadde en UPS. Linux var selvsagt inkludert i utsagnet, selv om det kanskje ikke kom godt nok frem.

 

ZFS har mange gode egenskaper, og blir gjerne brukt av de som kjører Solaris. For de som kjører linux, og satte opp sine filservere selv, var det rimelig standard med LVM (for live snapshotting) og XFS (for online resize og skalering), gjerne kombinert med hardware eller software raid.

Jeg har sett ZFS bli brukt i en setting, hvor man så gikk tilbake til Ext3 pga. problemer med implementasjonen. Det var dog ikke på Solaris. Er ellers kjent med filservere + SW-RAID/LVM på Linux da det er noe jeg både bruker hjemme til både virtualisering med Xen og filservere. Jeg har satt det opp mange år i produksjon. XFS har aldri vært aktuelt fordi mitt inntrykk var at det er kan være ustabilt i forbindelse med strømbrudd og fsck. Sikkert ok med UPS eller hvis bruken tilsier mye høyere ytelse.

 

Ellers mener jeg at minst like mange bruker Ext3/Ext4 på filservere som XFS. Igjen, det kommer litt an på setting og hva man har f.eks. av krav til f.eks. ytelse og bruksmønster. Ext3 er f.eks. ikke spesielt raskt.

 

Google gikk sin egen vei (som de ofte gjør), og brukte ext2. De gikk en tid tilbake direkte over til ext4 etter å ha ansatt utvikleren Teodor Ts'o. I kjølvannet av det har ext4 fått både online resize og meget god skalering. De andre store (Facebook, Yahoo, Amazon osv.) bruker HDFS. Innen HPC bruker de store gjerne PanFS, mens mindre aktører gjerne bruker mer standard linux og nfs. Red Hat har så langt ikke vært veldig villige til å tilby clustrede filsystemer, selv om de har vært i utvikling en god stund. Med andre ord har du i dag mange muligheter alt etter behov.

 

Blir ikke forundret over at f.eks. Facebook bruker HDFS da det er et clustered filsystem men finner det interessant at Google bruker Ext4. Ellers har Ext4 hatt online resize så lenge jeg kan huske, men ser at det kommer noen forbedringer i kjerne 3.3. Ext3 støttet det jo siden 2.6.10, som er noe sånt som 6 år siden.

Lenke til kommentar

Moroklumpen. Du summerer opp de to hovedegenskapene som gjør et filsystem trygt. COW er måten du kan gjøre metadata trygge på, dvs. at du i det store aldri får filkorrupsjon så lenge hardware funker. Det andre er checksum (en egenskap jeg glemte å nevne at også ext4 fikk med linux 3.5), som er måten du kan oppdage at et filsystem er korrupt, og avhengig av implementering og feil faktisk rette det.

Poenget er et det er flere egenskaper som gjør et filsystem trygt. En av dem er det er gjennomtestet og virker stort sett feilfritt.

 

Du har en fundamental misforståelse, korrupsjon kan skyldes mange årsaker utenom filsystemet, men det er likevel filsystemet sin oppgave å ivareta dataene dine, og fortelle deg når ting ikke er bra.

Tja, jeg vil si at det er ikke bare filsystemet sin oppgave men mekanismene du nevner er absolutt et skritt i riktig retning.
Lenke til kommentar

Hmm, det var informativt. Stemmer det med checksums, det kom først i EXT4. Ellers har jeg efart i en mindre produksjonssetting at EXT3 klarte seg utrolig bra. Det var snakk om to problematiske disker i et raid-sett på et par TB som måtte tas ut med påfølgende omfattende korrupt filsystem. Må si jeg ikke hadde store forhåpninger, men etter en del timer med fsck var alt tilbake på plass og ikke noe data ble mistet. Ja, de hadde backup også men nedetiden var mest kritisk.

 

Jeg ser du nevner at det er stort sett "alle" bruker Unixsystemer til lagring i dag. Det kan godt stemme det, da man har langt flere valgmuligheter for et filsystem som er tilpasset en viss setting, noe som er viktig å ta høyde for.

 

Men jeg blir litt nysgjerrig, hvilke filsystemer velges når det er snakk om store mengder data kritiske data? ZFS? Er det noen statistikk på det?

HDFS(Hadoop filesystem) har blitt vanleg for svært store datamengder, rett og slett fordi med Mapreduce så kan du kverne denne datamengder med å skrive tasks. HDFS er derimot ikkje eit filsystem beregna for eit enkelt system.

 

Ellers er det er vell like mange som velje EXT4 som XFS og ZFS idag. Den største barrieren for folk flest når det kommer til ZFS er at det ikkje fungerer skikkeleg på Linux, så dei må lære seg eit nytt system. Eg trur mange undervurderer FreeBSD som eit operativsystem i stor grad.

 

Eit anna populært alternativ idag er Netapp sin "Write Anywhere File System/WAFL". Men det kostar flesk.

 

Og det mest lovande er utan tvil Hammer som er veldig likt ZFS, men har ein meir effektiv dedup implementasjon. Hammer2 vil og vere eit ekte distribuert filsystem.

  • Liker 1
Lenke til kommentar

FreeBSD er definitivt undervurdert. Det var det OS-et som lærte meg å bruke Unix effektivt i versjon 4.0, spesielt pga. glimrende dokumentasjon og mye robust kode, før jeg gikk over til Linux. Brukte det både til gateway og filserver med Samba. Nå i dag er Linux mest aktuelt både i forbindelse med jobb og hjemme siden jeg bruker mye virtualisering og har blitt bortskjemt med APT. Som enkeltstående filserver med ZFS kunne jeg lett vurdert FreeBSD igjen.

Lenke til kommentar

Ja, men også fordi Ext3 var gjennomprøvd og stabilt og til å stole på når f.eks. strømmen gikk og man ikke hadde en UPS.

Ellers mener jeg at minst like mange bruker Ext3/Ext4 på filservere som XFS. Igjen, det kommer litt an på setting og hva man har f.eks. av krav til f.eks. ytelse og bruksmønster. Ext3 er f.eks. ikke spesielt raskt.
Ellers har Ext4 hatt online resize så lenge jeg kan huske, men ser at det kommer noen forbedringer i kjerne 3.3. Ext3 støttet det jo siden 2.6.10, som er noe sånt som 6 år siden.
Både ext3 og xfs er journalling, og har omtrent like god/dårlig beskyttelse mot korrupsjon. Det stemmer at online resize for ext3 kom med 2.6.10 for seks år siden, hvilket betyr at det først ble tilgjengelig i stabile linuxdistribusjoner for kun fem år siden. Live snapshotting med ext3 i kombinasjon med LVM ble først tilgjengelig med 2.6.29 (dvs. at Debian stable først fikk det i fjor). Ytelse er kritisk på filservere i profesjonell sammenheng, og det gjør ext3 uegnet. At du bruker det hjemme er naturligvis helt greit, men spørsmålet ditt gikk mot hvilke filsystemer som var i bruk for filservere, og det var rimelig å tolke at du siktet til profesjonelt bruk. Bruk av ext3 i den sammenheng har typisk vært forbundet med manglende kunnskap. Bruk av ntfs har vel vært nærmest p.g.a. hjernedød.
Lenke til kommentar

Både ext3 og xfs er journalling, og har omtrent like god/dårlig beskyttelse mot korrupsjon. Det stemmer at online resize for ext3 kom med 2.6.10 for seks år siden, hvilket betyr at det først ble tilgjengelig i stabile linuxdistribusjoner for kun fem år siden.

Hvis vi skal pirke, er det fortsatt en god evighet siden. Det ble nevnt i sammenheng med Ext4. Når det kommer til Ext3 og XFS stemmer det at begge har journal, men det er forskjell i journalføringen. Tidligere var det velkjent at XFS var mindre robust under strømbrudd samt at Ext3 var bedre på fsck, selv om XFS gjerne hadde mye bedre ytelse.

 

Live snapshotting med ext3 i kombinasjon med LVM ble først tilgjengelig med 2.6.29 (dvs. at Debian stable først fikk det i fjor). Ytelse er kritisk på filservere i profesjonell sammenheng, og det gjør ext3 uegnet.

Hvis ytelse er kritisk, bør man i hvert fall unngå LVM-snapshots. Jeg ser poenget for backup dog, hvis snapshottet fjernes men det vil likevel påvirke ytelsen i det snapshottet tas. Spesielt skrivehastighet går drastisk ned hvis det er mange endringer samtidig.

 

At du bruker det hjemme er naturligvis helt greit, men spørsmålet ditt gikk mot hvilke filsystemer som var i bruk for filservere, og det var rimelig å tolke at du siktet til profesjonelt bruk. Bruk av ext3 i den sammenheng har typisk vært forbundet med manglende kunnskap. Bruk av ntfs har vel vært nærmest p.g.a. hjernedød.

Spørsmålet gikk mer ut på hva som faktisk brukes av større IT-bedrifter, og som siDDis var inne på, er det mye forskjellig. Det viser jo bare at det er behov for mer enn bare beskyttelse mot datakorrupsjon, selv om det også er en viktig egenskap. Hvordan beskytter man seg mot manglende backup, brukerfeil og svikt av disker f.eks? Ellers må jeg kommentere det med hjemmeservere, siden jeg tross alt jobber med Linux til daglig. Vi bruker mye Ext3/Ext4 i jobbsammenheng, blant annet til virtualisering. Flaskehalsen her er f.eks. nettverket (diskene er iscsi), ikke filsystemet. Det skal sies at jeg sjelden setter opp filservere i en større sammenheng, derfor spørsmålet.

 

Enig i at det ofte har vært Ext3 i bruk fordi det er det som er satt som standard, samtidig er det også feil å si at det alltid har vært det dårligste valget. Det var et allround-filsystem som gjorde jobben sin helt greit. Nå har verden gått fremover, og vi har også Ext4 ;)

 

Det jeg prøver å si er at det er ikke så enkelt at XFS > Ext3, eller at Btrfs > Ext4 i alle tifeller. Det kommer helt an på bruken og for min egen del handler det også om hva jeg anser som stabilt.

Lenke til kommentar
Gjest Gjest slettet-ld9eg7s96q

Selv kjører jeg FreeBSD/FreeNAS med ZFS raid-z på min 12 TB hjemmeserver. Kjører mini-dlna for streaming av media og transmission for håndtering av p2p nedlastinger. Fungerer ypperlig, robust og OS'et gir deg ekstremt mye valgmuligheter/påbyggingsmuligheter.

 

Hadde aldri gått for Windows, blir som å betale for et dårligere produkt og begrense seg selv til den proprietære verdenen til MS.

 

Når en drosjesjåfør synes det er enkelt å sette opp og kjøre FreeNAS burde det strengt tatt ikke være vanskelig for andre heller ;)

Endret av Gjest slettet-ld9eg7s96q
Lenke til kommentar

Moroklumpen. Du summerer opp de to hovedegenskapene som gjør et filsystem trygt. COW er måten du kan gjøre metadata trygge på, dvs. at du i det store aldri får filkorrupsjon så lenge hardware funker. Det andre er checksum (en egenskap jeg glemte å nevne at også ext4 fikk med linux 3.5), som er måten du kan oppdage at et filsystem er korrupt, og avhengig av implementering og feil faktisk rette det.

Det er ikke bare at ntfs mangler sikring mot korrupsjon, det mangler også evne til å oppdage at filer har blitt korrupte (checksum er eneste rimelig trygge måte å gjøre det på). Da hjelper det ikke engang med back-up eller redundans, hele dritten blir etterhvert korrupt. For å toppe det hele så har ikke ntfs funksjonalitet for å isolere korrupsjon, så du risikerer å miste hele jævla filsystemet. Ja, folk opplever dette. Du har en fundamental misforståelse, korrupsjon kan skyldes mange årsaker utenom filsystemet, men det er likevel filsystemet sin oppgave å ivareta dataene dine, og fortelle deg når ting ikke er bra.

Nå er vel ikke akkurat ext4 et prakteksempel heller.

Lenke til kommentar
Gjest Gjest slettet-ld9eg7s96q

Nå er vel ikke akkurat ext4 et prakteksempel heller.

 

Ja, men det er ved ekstreme tilfeller og man har mulighet til å gardere seg mot at dette skjer ved å ta noen enkle grep. Det er jo ikke tvil om at ext4 er et overlegent filsystem kontra NTFS hva gjelder sikkerhet og stabilitet.

Lenke til kommentar

Etter mitt syn vil Windows Home server 2011 være ett klart førstevalg, det koster jo nesten ingenting. Har minst like mye funksjonalitet som nevnte alternativer. Og en nybegynner kan sette det opp uten å måtte lese halve web'en for å rote rundt i en terminal.

 

Hadde TS gått for det, så har han sikkert hatt en funksjonellt system den dag idag :)

Lenke til kommentar
Gjest Gjest slettet-ld9eg7s96q

Nei, kanskje ikke. Det virker ikke til at Linus er så veldig begeistret over ext3 og ext4.

 

 

Han har en spesiell måte å uttrykke misnøye på og en sinnsyk perfeksjonist. Så ja. Hva er det den mannen egentlig er begeistret over når det kommer til stykke?

Lenke til kommentar

Han har en spesiell måte å uttrykke misnøye på og en sinnsyk perfeksjonist. Så ja. Hva er det den mannen egentlig er begeistret over når det kommer til stykke?

Hehe joda. Men tidligere i tråden var det nulltoleranse for feil på et filsystem. Men det er plutselig greit når det er ext4 det er snakk om.

Lenke til kommentar
Gjest Gjest slettet-ld9eg7s96q

Hehe joda. Men tidligere i tråden var det nulltoleranse for feil på et filsystem. Men det er plutselig greit når det er ext4 det er snakk om.

 

Folk får snakke for seg selv. Jeg har ikke kjørt linux hjemme siden jeg migrerte til BSD for mange år siden. Å kjøre ext4 er uaktuelt for meg. Uansett er ext4 et soleklart bedre alternativ for lagring enn NTFS, har man tatt noen enkle grep og gardert seg ekstra er ikke det problemet du skisserte noen sak, så da kan man uansett være null-tolerant for feil og bruke ext4 med god samvittighet.

 

Men hvis du tror Torvalds er missfornøyd med ext4, hva tror du han da ville ha sagt om NTFS?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...