ATWindsor Skrevet 14. april 2008 Del Skrevet 14. april 2008 (endret) Hei, først av alt, så må jeg bare påpeke at min erfaring utover windows er heller liten, og at jeg har mest erfaring fra GUI-baserte måter å gjøre ting. SÅ det er sikkert endel litt tåplige spørsmål, og sikkert feil bruk av ord også, men jeg prøver meg allikvel på et spørsmål; Forhistorie: jeg skal teste solaris på en boks som fra før hadde XP og Ubuntu i dual-boot, etter en lang dag med stress, så er endelig Solaris oppe og kjøre. Grunnen til at jeg vil teste solaris er såklart ZFS. Men jeg har ikke så mange harddisker til over liggende rundt, dermed vil jeg gjerne lage storage-pools av slices, istedet for hele disker, for å teste ymse scenarioer. Såvidt jeg har forstått, så fungerer ikke en soalrispartisjon slike jeg er vant til å tenke om partisjoner, istedet har man en stor solarispartisjon, som igjen deles opp i mindre slices. Partisjonsoppsettet mitt ser slik ut: Partition Status Type Start End Length % 1 IFS: NTFS 0 2676 2677 18 2 Solaris 6501 6998 498 3 3 Linux Native 2677 6500 3824 26 4 Active Solaris2 6999 9915 2917 20 Når jeg i Fdisk prøver å lage en ny partisjon, så får jeg beskejd om å måtte slette en eksisterende, og etter å ha lest litt rundt, så virker det som to solarispartisjoner er vansklig å gjennomføre, og ditto med å resize en ekstra partisjon. Men jeg har litt ledig plass på selve solarispartisjonen, for om jeg går inn på fdisk->partition, får jeg fram dette: Total disk cylinders available 496+2 Part Tag Flag Cylinders Size 0 root wm 265-1309 8.01GB 1 swap wu 3-264 2.01GB 2 backup wn 0-2914 22.33GB 3 unassigned wm 0 0 4 unassigned wm 1310-1440 1.00GB 5 unassigned wm 0 0 6 unassigned wm 0 0 7 home wm 2355-2914 4.29GB 8 boot wu 0-0 7.84MB 9 alternates wu 1-2 15.69MB Partisjon 4 dekket tidligere helt fram til sylinder 2354, men jeg resizet den til 1 GB. Så langt så godt. Jeg tenker dermed "jeg bruker del 3-6 og 10-15 som slices som jeg kan legge i en zfs-pool.". Håper min tankegang er sånn noenlunde forståelig. Så jeg skrider til verket og forsøker å modifisere part 3. Mitt håp er jo da at den kan ta fra cylinder 1441 og 1GB utover, men om når jeg skal velge start clinder, så er default-valget 0, og om jeg skriver 1441 får jeg følgende beskjed: "1441 is out of range". Og så langt har jeg kommet, jeg fårstår ikke helt hvorfor dette ikke fungerer. AtW Endret 14. april 2008 av ATWindsor Lenke til kommentar
Sokkalf™ Skrevet 15. april 2008 Del Skrevet 15. april 2008 Kan nok ikke direkte svare deg, bruker selv Solaris, men bruker ZFS med hele disker. En av grunnene til at ZFS kom var forenklet administrasjon, og en av tingene man kan være glad man slipper er nettopp oppsett av slices.. Det er godt mulig at problemet ditt bunner i at den ikke vil lage en ny slice "midt" i partisjonen, det enkleste ville nok være å installere på nytt, og kjøre alt oppsett av slices i installasjonen. Eventuelt ville jeg vurdert å sette opp Solaris i en virtuell maskin. Der kan du emulere så mange disker du har lyst til, noe som gjør det litt mer fleksibelt, hvis formålet likevel kun er å teste/leke litt. Lenke til kommentar
ATWindsor Skrevet 15. april 2008 Forfatter Del Skrevet 15. april 2008 Man slipper oppsett av ZFS med slices såfremt diksene er like store ja, men hva skjer hvis ikke? Og det enkleste er sikkert å reinstllare. Men skal jeg bruke systemt til noe fornuftig må jeg skjønne hvordan man kan manipulere disker. Om diskverktøyet i solaris virkelig er så primitivt at det ikke klarer såpass enkle ting, så er jeg litt skuffet, hverken å resize en partisjon, eller å lage nye slices midt blant andre burde være noe teknisk problem slik jeg kan skjønne. Og om det er det, hvorfor i alle dager har solaris stablet om slicene slik at det er ledig rom "i midten" når jeg installerte? AtW Lenke til kommentar
Sokkalf™ Skrevet 15. april 2008 Del Skrevet 15. april 2008 Ja, som sagt bare gjetting fra min side. Det er helt sikkert mulig å gjøre det fra inni Solaris, men har ingen erfaring med det selv, siden jeg bare har operert med hele disker. Kan ikke gi noe bedre tips enn å lese manualen (man format f.eks), evt. vente på at noen med mer slice-skills svarer. ZFS bryr seg ikke nevneverdig om diskene er like store eller ikke, men du vil ikke få utnyttet de ekstra 10GB på f.eks en 50GB disk mirrored med en 40GB disk. Lenke til kommentar
ATWindsor Skrevet 15. april 2008 Forfatter Del Skrevet 15. april 2008 Ja, som sagt bare gjetting fra min side. Det er helt sikkert mulig å gjøre det fra inni Solaris, men har ingen erfaring med det selv, siden jeg bare har operert med hele disker. Kan ikke gi noe bedre tips enn å lese manualen (man format f.eks), evt. vente på at noen med mer slice-skills svarer. ZFS bryr seg ikke nevneverdig om diskene er like store eller ikke, men du vil ikke få utnyttet de ekstra 10GB på f.eks en 50GB disk mirrored med en 40GB disk. Ja ikke sant, og slik er det antaklig med en raidz også (selv om det strengt tatt ikke er nødvendig i mine øyne), og da er det greit å ikke bare la resten gå til spille. AtW Lenke til kommentar
Sokkalf™ Skrevet 15. april 2008 Del Skrevet 15. april 2008 Heller ingen løsning på problemet ditt akkurat.. men interessant uansett.. testet nettopp en liten greie jeg har lest om, men aldri testet ut før.. nemlig å opprette en zpool på filer. Testforløpet : bash-3.2# mkdir test bash-3.2# cd test bash-3.2# mkfile 200m file1 file2 file3 bash-3.2# ls file1 file2 file3 bash-3.2# zpool create testpool raidz /test/file1 /test/file2 /test/file3 bash-3.2# zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT tank 2.27T 845G 1.44T 36% ONLINE - testpool 584M 155K 584M 0% ONLINE - bash-3.2# ("tank" som ligger der er den opprinnelige zpool'en min) Satser på at du skjønner tegninga. Dette gir jo forsåvidt uendelig fleksibilitet i testing.. håper det kan være til nytte selv om jeg ikke kan hjelpe deg med det opprinnelige problemet.. Lenke til kommentar
ATWindsor Skrevet 15. april 2008 Forfatter Del Skrevet 15. april 2008 Takk for tipset, var klar over at man kan lage pools på filer, men vil gjerne lage det på slices så jeg har litt større fleksibilitet til å så hva som skjer om en disk går ned og man korrumperer deler av dataene på en annen disk. AtW Lenke til kommentar
jgilje Skrevet 15. april 2008 Del Skrevet 15. april 2008 Er enig i at det er merkelig hvis du ikke kan legge til en slice "midt inni", så jeg prøvde selv. Kort fortalt, så fungerte det for meg uten problem. Siden du har knota endel allerede, så legger jeg bare med loggen istedetfor å gå gjennom på detaljnivå. partition> p Current partition table (unnamed): Total disk cylinders available: 13014 + 2 (reserved cylinders) Part Tag Flag Cylinders Size Blocks 0 root wm 263 - 2221 15.01GB (1959/0/0) 31471335 1 swap wu 1 - 262 2.01GB (262/0/0) 4209030 2 backup wm 0 - 13013 99.69GB (13014/0/0) 209069910 3 unassigned wm 0 0 (0/0/0) 0 4 unassigned wm 0 0 (0/0/0) 0 5 unassigned wm 0 0 (0/0/0) 0 6 unassigned wm 0 0 (0/0/0) 0 7 home wm 4181 - 13013 67.66GB (8833/0/0) 141902145 8 boot wu 0 - 0 7.84MB (1/0/0) 16065 9 unassigned wm 0 0 (0/0/0) 0 partition> 3 Part Tag Flag Cylinders Size Blocks 3 unassigned wm 0 0 (0/0/0) 0 Enter partition id tag[unassigned]: Enter partition permission flags[wm]: Enter new starting cyl[0]: 2222 Enter partition size[0b, 0c, 2222e, 0.00mb, 0.00gb]: 1gb partition> p Current partition table (unnamed): Total disk cylinders available: 13014 + 2 (reserved cylinders) Part Tag Flag Cylinders Size Blocks 0 root wm 263 - 2221 15.01GB (1959/0/0) 31471335 1 swap wu 1 - 262 2.01GB (262/0/0) 4209030 2 backup wm 0 - 13013 99.69GB (13014/0/0) 209069910 3 unassigned wm 2222 - 2352 1.00GB (131/0/0) 2104515 4 unassigned wm 0 0 (0/0/0) 0 5 unassigned wm 0 0 (0/0/0) 0 6 unassigned wm 0 0 (0/0/0) 0 7 home wm 4181 - 13013 67.66GB (8833/0/0) 141902145 8 boot wu 0 - 0 7.84MB (1/0/0) 16065 9 unassigned wm 0 0 (0/0/0) 0 Etter dette kjørte jeg newfs /dev/dsk/c3t0d0s3 som da rapporterte at den formaterte ett 1GB filsystem. Til slutt den ultimate testen (i denne konteksten) root@xerxes ~# zpool create -f yarr /dev/dsk/c3t0d0s3 root@xerxes ~# zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT storage 340G 105G 235G 30% ONLINE - yarr 1016M 94K 1016M 0% ONLINE - Lenke til kommentar
ATWindsor Skrevet 15. april 2008 Forfatter Del Skrevet 15. april 2008 Jeg legger merke til at "total disk cylinders available" ikke haromenrer med hva som faktisk er tilgjengelig hos meg. Kan det være en medvirkende årsak? AtW Lenke til kommentar
ATWindsor Skrevet 15. april 2008 Forfatter Del Skrevet 15. april 2008 Jeg resizet min "unnassigned"-slice til å være fra 0-0, nå kan jeg ikke få den tilbake, (den som tidligere begynte på 2310, og var 1 GB stor). Men jeg tror jeg er inne på noe når det gjelder det med "total disk cylinders available" for jeg kan starte disken på cylinfer 495, men ikke 496 (eller høyere) så det virker som den av en eller annen grunn tror at kun de første 496 første er tilgjengelig, noen som har noen ide om hva det kan komme av? AtW Lenke til kommentar
stigfjel Skrevet 18. april 2008 Del Skrevet 18. april 2008 (endret) Eneste disken jeg har partisjonert i Solaris er systemdisken. Alle lagringsdiskene (samme størrelse) ligger nå i et ZFS storage pool, og ingen partisjonering/formatering er nødvendig. Man trenger heller ikke å røre /etc/vfstab (tilsvarer /etc/fstab i GNU/Linux og BSD), poolet mounter automatisk ved boot når det er initialisert. Husk at hvis du vil "partisjonere" kan du opprette separate filsystemer inni poolet med kommandoen # zfs Det er om mulig enda enklere enn å opprette selve poolet. Og med et filsystem opprettet med 'zfs' kan man enkelt sette kvote på filsystemet hvor mye plass filsystemet totalt kan ta. Også dette gjøres med 'zfs'. Les manualen for hvordan du gjør det. ZFS er som sagt et filsystem som bryter totalt med tradisjonelle oppsett av et filsystem. Når det kommer til deling av mapper mot GNU/Linux og BSD-maskiner, trolig også OS X vil enkleste alternativ være å bruke NFS. I motsetning til det jeg har erfart i GNU/Linux og BSD om NFS er NFS såre enkelt i Solaris 10. Man setter deling på en mappe helt enkelt med kommandoen # share Les manualen for hvordan du bruker denne kommandoen. Og for å gjøre delingen permanent limer du helt enkelt kommandoen du skriver inn i /etc/dfs/dfstab. Da har du opprettet en NFS-share, og du mounter denne på en Linux/BSD klient på vanlig måte. Edit: Hvis du vil endre mount-point for et filsystem opprettet med 'zfs' er det også fullt mulig, også dette gjøres via 'zfs'. Operativsystemet vil da sørge for at dette filsystemet automatisk mounter på den plasseringen du selv har angitt, uten å røre så mye som en config-fil. Endret 18. april 2008 av stigfjel Lenke til kommentar
Sokkalf™ Skrevet 19. april 2008 Del Skrevet 19. april 2008 Når det kommer til deling av mapper mot GNU/Linux og BSD-maskiner, trolig også OS X vil enkleste alternativ være å bruke NFS. I motsetning til det jeg har erfart i GNU/Linux og BSD om NFS er NFS såre enkelt i Solaris 10. Man setter deling på en mappe helt enkelt med kommandoen # share Les manualen for hvordan du bruker denne kommandoen. Og for å gjøre delingen permanent limer du helt enkelt kommandoen du skriver inn i /etc/dfs/dfstab. Da har du opprettet en NFS-share, og du mounter denne på en Linux/BSD klient på vanlig måte. Så tungvindt da gitt! ZFS ordner jo den biffen også. zfs sharenfs=on pool/filsystemnavn Lenke til kommentar
stigfjel Skrevet 19. april 2008 Del Skrevet 19. april 2008 Så tungvindt da gitt! ZFS ordner jo den biffen også. zfs sharenfs=on pool/filsystemnavn Stemmer, det. Selv prøvde jeg med 'zfs share', men fikk beskjed om å bruke 'share'. Hadde glemt paramteteren sharenfs=on med 'zfs'. Det gjør ting selvfølgelig enda enklere. Solaris 10, ZFS og NFS sammen er pent!!! (samba er ikke så verst det heller, særlig når man bruker SWAT til å sette det opp...) Lenke til kommentar
ATWindsor Skrevet 19. april 2008 Forfatter Del Skrevet 19. april 2008 Eneste disken jeg har partisjonert i Solaris er systemdisken. Alle lagringsdiskene (samme størrelse) ligger nå i et ZFS storage pool, og ingen partisjonering/formatering er nødvendig. Man trenger heller ikke å røre /etc/vfstab (tilsvarer /etc/fstab i GNU/Linux og BSD), poolet mounter automatisk ved boot når det er initialisert. Husk at hvis du vil "partisjonere" kan du opprette separate filsystemer inni poolet med kommandoen # zfs Det er om mulig enda enklere enn å opprette selve poolet. Og med et filsystem opprettet med 'zfs' kan man enkelt sette kvote på filsystemet hvor mye plass filsystemet totalt kan ta. Også dette gjøres med 'zfs'. Les manualen for hvordan du gjør det. ZFS er som sagt et filsystem som bryter totalt med tradisjonelle oppsett av et filsystem. Når det kommer til deling av mapper mot GNU/Linux og BSD-maskiner, trolig også OS X vil enkleste alternativ være å bruke NFS. I motsetning til det jeg har erfart i GNU/Linux og BSD om NFS er NFS såre enkelt i Solaris 10. Man setter deling på en mappe helt enkelt med kommandoen # share Les manualen for hvordan du bruker denne kommandoen. Og for å gjøre delingen permanent limer du helt enkelt kommandoen du skriver inn i /etc/dfs/dfstab. Da har du opprettet en NFS-share, og du mounter denne på en Linux/BSD klient på vanlig måte. Edit: Hvis du vil endre mount-point for et filsystem opprettet med 'zfs' er det også fullt mulig, også dette gjøres via 'zfs'. Operativsystemet vil da sørge for at dette filsystemet automatisk mounter på den plasseringen du selv har angitt, uten å røre så mye som en config-fil. Joda, takk for tipset, jeg har jo lest endel om ZFS, og det virker fint på pairet ihvertfall, derfor jeg skal teste det. Men all denne velstanden hjelper meg ikke så mye før jeg faktisk for satt opp maskinen så jeg kan teste zfs på skikkelig vis AtW Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå