Zerd Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 Ah. Veldig kjekt å vite. Er på 14TB nå, så unngikk akkurat problemet. Problemet er vel at verktøyene for å manipulere partisjonene (e2fsprogs) ikke støtter 64bit. Ser at noen har prøvd, men det ser ikke ut til å være verd strevet. På tide å prøve noe nytt. Fant en som bruker JFS på sin 84TB partisjon. Tenkte å teste ut enten det eller ZoL. Lenke til kommentar
NatuRal3 Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 (endret) Her skal det ryddes. Nei det er ikke jeg som har laget dette kaoset Endret 1. mars 2013 av NatuRal3 1 Lenke til kommentar
cruzader Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 Var en morro blanding av utstyr/tidsaldre. Selvom meget lite sansynlig at en elev i det nettet er her, så er det generelt greit sensurere ipr/navn fra driftsmiljøbilder Den lille d-link elskeren i meg gir ihvertfall den coren thumbs up Tror noen satt en stund på sine knær for pengene til kjøpe den siden nok omtrent dyreste gjenstanden i rommet. Lenke til kommentar
NatuRal3 Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 La inn en sensur via paint. Så ikke den. Takk Lenke til kommentar
ToreBK Skrevet 6. mars 2013 Del Skrevet 6. mars 2013 Har fortsatt 3-4 PCer ruslende i nettverket i huset (med alt fra gamle 160GB disker til 1 TB i Raid0 fra gamle USB-kabinett), går med nok strøm til å holde bodene på 30+ grader, men foretrekker NASene mine 2 Lenke til kommentar
Rudde Skrevet 6. mars 2013 Del Skrevet 6. mars 2013 Wow, stilrent og pent Ikke min stil men kunne inredet mor, far, tante og bestemors hus slik for redundancy Lenke til kommentar
SpecialForce Skrevet 6. mars 2013 Del Skrevet 6. mars 2013 (endret) Noen som vet om det er et problem å kjøre ulike disker med diskstørrelse og hastighet i RAID 5 i Freenas med ZFS, og kunne utvide poolen med nye disker, hvor man da også får utnyttet lagringsplassen som disse diskene gir ? Er det noe problem ? Vet forøvrig at det kan bli en del ytelsestap med et sånt oppsett, men det er ikke det viktigste. Det viktigste er å få utnyttet alle diskene jeg har. Driver å tenker på å sette opp en server med ESXI, med virtuell brannmur, filserver og andre typer servere og test-ting, men primært lagring som viktigste behov. Blir nok ikke noe proff-oppsett, men med utgangspunkt i det jeg har fra før. Guider og lignende info tas i mot med takk. Endret 6. mars 2013 av SpecialForce Lenke til kommentar
tingo Skrevet 6. mars 2013 Del Skrevet 6. mars 2013 FreeNAS bruker zfs for alt som er "mer enn" raid-3. FreeNAS med zfs: du får ikke utnyttet disker av forskjellig størrelse "rett ut av boksen" (dvs. fra GUI'et i FreeNAS) - volumet / volumene du lager av en pool i zfs vil bli laget ut fra minste disk sin størrelse. Det er kanskje mulig å mikke dette til fra kommandolinja, men jeg har ikke sett noen guider på det. En ting til med zfs: når du utvider poolen så må den utvides med en ekstra vdev dersom du vil beholde integriteten (og det vil du). Det betyr i praksis at dersom du satte opp poolen med tre disker for raid-z1 første gang, så må den utvides med en tilsvarende vdev (3 disker) neste gang. Et annet alternativ er NAS4Free, som er en videreutvikling av "gamle" FreeNAS (dvs. uten zfs). Den støtter visstnok også raid-5. Lenke til kommentar
SpecialForce Skrevet 6. mars 2013 Del Skrevet 6. mars 2013 Jeg forstår. Da er egentlig Freenas noe som ikke er så aktuelt lenger.. Dette er ting jeg vil velge selv. Det er ikke slik at man kan åpne lommeboka på vidt gap hele tiden, og jeg har en del SATA-Disker av forskjellig størrelse, så for min del er det mest fornuftig å kunne "bruke opp" det jeg har fra før. Hvis noen finner en guide på hvordan man kan bruke forskjellige disker med ZFS, så si gjerne ifra. Lenke til kommentar
arnbju Skrevet 9. mars 2013 Del Skrevet 9. mars 2013 De fleste former for raid krever at diskene er like store. Hvis du vil burke disker av forskjelligs størrelse og få mest mulig diskplass og samtidig redundans burde du se på unraid og flexraid. Lenke til kommentar
ZeRKoX Skrevet 13. mars 2013 Del Skrevet 13. mars 2013 Her skal det ryddes. Nei det er ikke jeg som har laget dette kaoset Næmmen, du sitter med D-Link i core, mens en ca ubrukt Cisco3560G står i naboracket? How come? Lenke til kommentar
cruzader Skrevet 13. mars 2013 Del Skrevet 13. mars 2013 Etter plassering så tipper jeg ciscoen er ISP sin kant for leveranse. Lenke til kommentar
Snabel Skrevet 7. april 2013 Del Skrevet 7. april 2013 (endret) ServerRacket begynner å bli fullt, trenger ideer på hvordan å få 'lurt' inn et 2U kabinett til, må teste freebsd/linux som lagringsserver Endret 7. april 2013 av Snabel 1 Lenke til kommentar
Rudde Skrevet 7. april 2013 Del Skrevet 7. april 2013 Nice, nice, hva har du inni der? Lenke til kommentar
Snabel Skrevet 7. april 2013 Del Skrevet 7. april 2013 Der står det en intel 980x/24 GB/ WS2012 til viritualisering ( Må jo nødt til å få opp FreeBSD/Linux kompetansen hører jeg her ) + lagringsserveren AMD FX 6100 / 16GB / adaptech 51645 og 5805/ WS2012 storage server. 5805 er koblet mot de to DAS kabinettene. tilsammen 48 HDD's som er satt opp i RAID 50 pr 8 HDD. Tør ikke kjøre feler disker i samme array pga rebuild tida. Switchen som jeg bruker er en cisco 200 smart switch. + en bluewalker UPS som står i bunn av Racket ( som jeg ikke får SW til å funke på ) OS'n på begge serverene blir kjørt fra en 60GB SSD. Lenke til kommentar
Rudde Skrevet 7. april 2013 Del Skrevet 7. april 2013 Hvor mye er totalt lagringskapasitet? Og hvorfor har du valgt og gå med Raid 50? Vurderte de DAS kassene selv men lest mye om at folk som reklamerer dem som SATA II egentlig leverer SATA I, hvilken versjon har du? Og hvor fikk du kjøpt de? Lenke til kommentar
Snabel Skrevet 7. april 2013 Del Skrevet 7. april 2013 (endret) Totalt er det 60TB pga raid oppsettet det står /24x2TB / 8x 3TB WD red /16x1TB. Jeg kjøpte de av en her på forumet... Cruzader om jeg ikke tar feil. De funker glimmrende , det er nok kontrollern som er avgjørende ang sata 1 eller 2, mine adaptec kjenner ikke igjen WD RED diskene så de stå som sata 1 - noe som er dritt irriterende. En ting jeg fikk erfart er at disse kabinettene ikke blir gjenkjent dersom du har en kontroller som allerede har innebygget expander - dvs en kontroller som har mer en 2xsff8087. jeg har forsøkt med adaptec, LSI uten hell. Endret 7. april 2013 av Snabel Lenke til kommentar
wtf1337 Skrevet 7. april 2013 Del Skrevet 7. april 2013 Hadde lagd ut mange bilder av datahallen jeg har vært på, bare om eieren(e) var villige. Skal iallefall prøve og legge ut bilder av upgrade av backbone, dvs strekking av sfp og ether. Og litt bilder av racket. Ny hardware(procuve&proliant) Lenke til kommentar
No-nick Skrevet 7. april 2013 Del Skrevet 7. april 2013 En ting jeg fikk erfart er at disse kabinettene ikke blir gjenkjent dersom du har en kontroller som allerede har innebygget expander - dvs en kontroller som har mer en 2xsff8087. jeg har forsøkt med adaptec, LSI uten hell. Vurderte desse selv når jeg så dem på bruktmarked her men var litt frem og tilbake. Og takket være innlegget ditt tror jeg heller jeg går for norco 4224 Lenke til kommentar
Snabel Skrevet 7. april 2013 Del Skrevet 7. april 2013 hva må du gi for et Norco 4224? og fra hvor bestiller du det? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå