sdf123 Skrevet 8. april 2014 Del Skrevet 8. april 2014 Si at man kjører en pool med 3*2TB i raidz1. Så etter en stund ønsker man mere plass og kjøper 3x4TB, kan man da lage en ny vdev og så legge til den poolen man allerede har laget? Og da vil man totalt få 4TB + 8TB= 12TB? Er helt ny på dette, så lurer på om jeg har forstått rett? Lenke til kommentar
Gavekort Skrevet 9. april 2014 Del Skrevet 9. april 2014 Vet ikke om det er dette du spør om, men Oracle har en flott guide om hvordan du legger til disker i et ZFS pool. http://docs.oracle.com/cd/E19253-01/819-5461/gazgw/index.html Lenke til kommentar
Buzz76 Skrevet 9. april 2014 Del Skrevet 9. april 2014 Si at man kjører en pool med 3*2TB i raidz1. Så etter en stund ønsker man mere plass og kjøper 3x4TB, kan man da lage en ny vdev og så legge til den poolen man allerede har laget? Og da vil man totalt få 4TB + 8TB= 12TB? Er helt ny på dette, så lurer på om jeg har forstått rett? Ja du har forstått det rett. Du kan gjøre som du skisserer, men det er ikke anbefalt å mikse disks med forskjellig størrelse, selv om du holder samma størrelse i de forskjellige vdev. Dersom du skal ha en pool med flere vdev, er det best med samma størrelse, antall disk og paritets level på alle vdev. Det er også å foretrekke å lage poolen ferdig først som sist. Altså å ikke utvide den etter at du har fyllt den opprinnelige med data. Det har med ytelse å gjøre. Du kan øke størrelsen på en pool ved å bytte ut alle disks med større disks. Dog litt tungvindt da du må bytte en av gangen. Lenke til kommentar
endrebjo Skrevet 9. april 2014 Del Skrevet 9. april 2014 Ja du har forstått det rett. Du kan gjøre som du skisserer, men det er ikke anbefalt å mikse disks med forskjellig størrelse, selv om du holder samma størrelse i de forskjellige vdev. Dersom du skal ha en pool med flere vdev, er det best med samma størrelse, antall disk og paritets level på alle vdev. Det er også å foretrekke å lage poolen ferdig først som sist. Altså å ikke utvide den etter at du har fyllt den opprinnelige med data. Det har med ytelse å gjøre. Du kan øke størrelsen på en pool ved å bytte ut alle disks med større disks. Dog litt tungvindt da du må bytte en av gangen. Men til hjemmebruk har ikke den lille ytelsesforskjellen noe som helst å si. Lenke til kommentar
sdf123 Skrevet 10. april 2014 Forfatter Del Skrevet 10. april 2014 Så det eneste jeg vil miste er ytelse, men ettersom dette er en hjemme server vil det for min del ikke bety noe? Lenke til kommentar
omvik Skrevet 11. april 2014 Del Skrevet 11. april 2014 Håper det går greit at jeg sniker meg inn her... sitter å leser litt om freenas selv for øyeblikket. Mener å ha lest en plass (som jeg ikke husker igjen) at dersom en vdev ryker/krasjer så går det utover alle andre vdevs innenfor samme pool? Medfører dette riktighet, eller er det bare den enkelte vdev som ryker? Lenke til kommentar
endrebjo Skrevet 11. april 2014 Del Skrevet 11. april 2014 Det kjøres striping ("RAID0") mellom forskjellige vdevs i samme pool, så hele poolen kræsjer hvis en hel vdev kræsjer. Men samtidig har du jo f.eks RAID-Z1 innad i hver vdev, så du kan miste én disk i hver vdev uten at noe går galt. Lenke til kommentar
omvik Skrevet 11. april 2014 Del Skrevet 11. april 2014 (endret) Hei Fant guiden jeg snakket om nå, i PDF-filen her: http://forums.freenas.org/index.php?threads/slideshow-explaining-vdev-zpool-zil-and-l2arc-for-noobs.7775/ på side 11 og 12. Her står d: "If any VDev in a zpool is failed, you will lose the entire zpool with no chance of partial recovery." og "If any VDev in a zpool fails, then all data in the zpool is unavailable." Jeg forstår det sånn at uansett hva de forskjellige vdevs innenfor samme pool består av, så ryker ALT i poolen om én vdev ryker? Edit: Dette er da om en vdev ryker, ikke om en disk i en vdev ryker Endret 11. april 2014 av omvik Lenke til kommentar
tingo Skrevet 11. april 2014 Del Skrevet 11. april 2014 Riktig. En pool består av en eller flere vdevs. Dersom en vdev ryker, så bør du ha en backup som virker. Lenke til kommentar
Buzz76 Skrevet 6. mai 2014 Del Skrevet 6. mai 2014 Ja du har forstått det rett. Du kan gjøre som du skisserer, men det er ikke anbefalt å mikse disks med forskjellig størrelse, selv om du holder samma størrelse i de forskjellige vdev. Dersom du skal ha en pool med flere vdev, er det best med samma størrelse, antall disk og paritets level på alle vdev. Det er også å foretrekke å lage poolen ferdig først som sist. Altså å ikke utvide den etter at du har fyllt den opprinnelige med data. Det har med ytelse å gjøre. Du kan øke størrelsen på en pool ved å bytte ut alle disks med større disks. Dog litt tungvindt da du må bytte en av gangen. Men til hjemmebruk har ikke den lille ytelsesforskjellen noe som helst å si. Ikke noe i veien å følge best practices selv om du er hjemme Lenke til kommentar
Lindsay Skrevet 21. mai 2014 Del Skrevet 21. mai 2014 (endret) Om du adder vdevs i en pool så fordrer det att du sjekker helsen til disker. Sannsyligheten att 2 hdd`s ryker i et vdev er sjelden, men kan skje. Da ryker som sagt hele pool. nas4free eller freenas har jo s.m.a.r.t error report som sier noe om helsen på hdd`s Er nok heller litt mer engstelig angående ZFS og none ECC kontra ECC Endret 21. mai 2014 av Lindsay Lenke til kommentar
tingo Skrevet 22. mai 2014 Del Skrevet 22. mai 2014 Engstelig? Hvorfor det? Dersom du kjører en ZFS-løsning på en maskin uten ECC-minne og det oppstår en feil relatert til ZFS, hvordan har du tenkt at du skal finne ut om feilen skyldes manglende ECC eller noe annet? Lenke til kommentar
endrebjo Skrevet 22. mai 2014 Del Skrevet 22. mai 2014 Uten ECC kan ZFS teoretisk sett gå inn i en selvdestruktiv loop som gjør mer skade enn hva et ikke-ZFS-system ville fått hvis samme feilen oppstod der. Og feil kan oppstå i ZFS uten at det faktisk er noe HDD-feil der, pga checksumming. http://forums.freenas.org/index.php?threads/ecc-vs-non-ecc-ram-and-zfs.15449/ Men sannsynligheten for at dette inntreffer er uansett såpass liten at det kanskje ikke er verdt å gå rundt og engste seg for det. http://blog.brianmoses.net/2014/03/why-i-chose-non-ecc-ram-for-my-freenas.html Lenke til kommentar
tingo Skrevet 23. mai 2014 Del Skrevet 23. mai 2014 Akkurat. Finn noe annet å engste seg for (eller bare la være). Lenke til kommentar
Lindsay Skrevet 23. mai 2014 Del Skrevet 23. mai 2014 Engstelig er jeg nok ikke, men skal en bygge noe så er det greit å tenke. ZFS har ingen effekt uten ECC, men hva folk velger selv har ingen betydning for min del. Lenke til kommentar
tingo Skrevet 23. mai 2014 Del Skrevet 23. mai 2014 Ingen effekt? Makan til logisk kortslutning i tenkingen. Lenke til kommentar
Lindsay Skrevet 23. mai 2014 Del Skrevet 23. mai 2014 (endret) Hva du gjør spiller nada rolle for meg tingo, jeg bare påpeker hva zfs er ment for. Scrub vil ikke rette opp feil foreksempel grunnet mangel av ECC. Kortsluttningen finnes nok hos deg Endret 23. mai 2014 av Lindsay Lenke til kommentar
tingo Skrevet 23. mai 2014 Del Skrevet 23. mai 2014 Du påstår at "ZFS har ingen effekt uten ECC". Men, ZFS er et solid og bra filsystem selv uten ECC, kanskje til og med bedre enn andre filsystemer på markedet. Din "ingen effekt" får det til å høres ut som om ZFS ikke virker uten ECC. Derav logisk kortslutning i tenkingen. Lenke til kommentar
Lindsay Skrevet 24. mai 2014 Del Skrevet 24. mai 2014 Jo zfs fungerer som system uten ECC, men den funksjonen som zfs gir med selvreparerende filsystem har ingen effekt om det har oppståẗt feil under kopiering. Og det er den unike funksjonen att det er selvreparerende som gjør zfs så genialt. Da hjelper ikke scrub, duplisering eller what ever zfs gir. Da må en om en kjører zfs uten ECC ha media som holder det samme innhold på et annet filsystem som UFS/EXT3 eller 4. Og så er det også en regel om att raid ikke er optimal backup heller. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå