Gå til innhold

SoftRaid på 3,7 TB borte.... Ikke uvanlig?


TBJ

Anbefalte innlegg

Videoannonse
Annonse

Du kan overhodet ikke sammenligne Solaris med Windows. Solaris tryner aldri.

 

Faktisk - så er ikke windows lenger så ille som det var. Problemet med windows er i all hovedsak et filsystem som ikke er laget for sikker lagring (selv om NTFS i og for seg er bra). Det som betyr mest er at man må kunne oppdage at en disk er på vei til å ryke lenge før det blir et problem.

 

ZFS har gjort veldig mange klar over de åpenbare feilene som eksisterer med RAID systemer (søk på "RAID 5 Write Hole" for mer info). Mangel på TLER justeringsmuligheter på nye disker er også en stor fare for hardware RAID kontrollere.

 

Solaris er fantastisk. Men nå med Oracle i forsetet er jo alt på vei til å gå til helvete (de drepte bl.a. OpenSolaris forrige uke) :(

Lenke til kommentar

Men jeg er fremdeles like avhengig av raidkort.

Nei, det ordner zfs. Alt du trenger er kontrollerkort nok til å koble alle diskene til maskina di.

 

Med den løsningen du nevner her, kan jeg kanskje beholde raidkortet jeg allerede har og heller bytte ut 2x2TB med 4x1TB i raid5 (evt. 4x1,5TB)?

Ja, det kan du.

Jeg undres - har du / dere testet ytelsen på serveren (diskytelse) med både raid0 og raid1? Mange tror at de får bedre ytelse i raid0 enn de faktisk gjør (i praksis viser det seg ofte at forskjellen er minimal).

 

Solaris er fantastisk. Men nå med Oracle i forsetet er jo alt på vei til å gå til helvete (de drepte bl.a. OpenSolaris forrige uke) :(

Bra at vi har FreeBSD da.

 

Solaris er fantastisk. Men nå med Oracle i forsetet er jo alt på vei til å gå til helvete (de drepte bl.a. OpenSolaris forrige uke) :(

Bra at vi har FreeBSD da. (Hva er det som skjer med forumet? Nå har jeg forsøkt å svare på denne posten mange ganger, men hver gang så havner svaret mitt i forrige post.)

Endret av tingo
Lenke til kommentar

Men jeg er fremdeles like avhengig av raidkort.

Nei, det ordner zfs. Alt du trenger er kontrollerkort nok til å koble alle diskene til maskina di.

 

Med den løsningen du nevner her, kan jeg kanskje beholde raidkortet jeg allerede har og heller bytte ut 2x2TB med 4x1TB i raid5 (evt. 4x1,5TB)?

Ja, det kan du.

Ble litt usikker her nå.

Mener du at den klarer å kjøre raid 5 selv om jeg ikke har raidkort som støtter det? :hmm:

Altså at jeg kun trenger nok sata kontakter? :hmm::hmm:

 

Men jeg har skaffet noen som redder meg uansett.

Raidkortet mitt støtter ikke raid 5, men jeg har skaffet et hovedkort som fikser det: ASUS A8N-SLI Deluxe.

 

 

Jeg undres - har du / dere testet ytelsen på serveren (diskytelse) med både raid0 og raid1? Mange tror at de får bedre ytelse i raid0 enn de faktisk gjør (i praksis viser det seg ofte at forskjellen er minimal).

Vel. Ikke testet, nei.

Har nå blitt overbevist om at jeg skal kjøre raid 5.

For "morro skyld" så har jeg tenkt å sette opp en identisk server som ikke kjører raid, kun for å teste hastigheter og se hvor stor forskjell det egentlig gjør (for vårt bruk).

Lenke til kommentar

Solaris er fantastisk. Men nå med Oracle i forsetet er jo alt på vei til å gå til helvete (de drepte bl.a. OpenSolaris forrige uke) :(

Bra at vi har FreeBSD da. (Hva er det som skjer med forumet? Nå har jeg forsøkt å svare på denne posten mange ganger, men hver gang så havner svaret mitt i forrige post.)

 

Vel... Det påvirker jo ZFS på FreeBSD også at det ikke kommer regelmessig ZFS kildekode lenger. Mitt problem er at zpool'ene mine er på nyeste versjon som er langt fra støtte i FreeBSD enda. Blir nok å bytte til Nexenta nå tror jeg, frem til Illumos har noe å vise frem.

Lenke til kommentar

FreeNAS 8.1 med ZFS er ein mykje betre investering enn Windows og hardware raid.

ZFS er neste generasjons filsystem som passer ekstra godt på dataen din. Det betyr ikkje at du vil stripe fire harddisker men at du vil kjøre raid 10 eller raid5.

 

Har du moderne CPU(quad core 3ghz+) og minst 4GB ram så kan du rekne med skriveytelse mellom 200-300MB/s og leseytelse mellom 500-1000MB/s

 

Då kan du også kjøyre med compression som sparer diskplass og auker IO ytelsen 10-40%.

 

ZFS er bygget med tanke på at det ikkje skal kræsje ved straumbrudd, dårlege sektorer osv. Dyre hardware raid kontrollere har ingen særleg fordel når det kjem til datasikkerheit når ein bruker ZFS.

 

Det er litt synn at det finnes så få benchmarks for Solaris. Skulle ha gjerne sett tester som viser opp til 1000MB/s lesehastigheter med billige raidkontrollere.

 

 

 

 

 

Det som også er kjedelig med solaris er at windowsbrukere som meg ikkje har noe nytte av en box med ZFS og heftige hastigheter når gigabit lan er så evig treigt. Og 10gigabit lan er evig dyrt. Derfor er det best å ha raske raidarray på hovedmaskinen ( windows i mitt tilfelle)  Har raidZ på ubuntuserveren min som jeg bruker til mediaserver som også mediaspilleren er koblet til gjennom nettverket. Tenk hvis ZFS hadde funka til windows, så kanskje det kunne ha blitt brukt til noe fornuftig :D

 

 

 

 

At zfs er sikkert for filsystemet er vel og bra, men nå har jeg enda tilgode å miste enner få noe data ødelagt på mine raidarray igjennom ganske mange år. Tror faktisk jeg har kjørt flere kontrollere og raidarray enn fleste her. Iallefall når det er snakk om privat bruk. Jeg er på ingen måte noen ekspert, men jeg har iallefall en del erfaring med lagring :p

 

 

 

 

 

Lenke til kommentar

Det er litt synn at det finnes så få benchmarks for Solaris. Skulle ha gjerne sett tester som viser opp til 1000MB/s lesehastigheter med billige raidkontrollere.

 

Her har du en liten "benchmark" hos Hardforum.com.

Han bruker LSI 9200 HBA og OpenSolaris 2009.6.

 

Det viser bare at det er mulig med ganske imponerende hastigheter med ZFS (så lenge du har råd til tilsvarende utstyr som dette prosjektet :))

 

Dette prosjektet bruker 2 LSI-kort til 2 kabinetter med SAS-expanders, så han har plass til nok disker (og kan utvide videre med mer disk-kabinetter hvis behovet skulle oppstå. Full worklog kan leses i denne tråden.

Lenke til kommentar

Det er litt synn at det finnes så få benchmarks for Solaris. Skulle ha gjerne sett tester som viser opp til 1000MB/s lesehastigheter med billige raidkontrollere.

 

Her har du en liten "benchmark" hos Hardforum.com.

Han bruker LSI 9200 HBA og OpenSolaris 2009.6.

 

Det viser bare at det er mulig med ganske imponerende hastigheter med ZFS (så lenge du har råd til tilsvarende utstyr som dette prosjektet :))

 

Dette prosjektet bruker 2 LSI-kort til 2 kabinetter med SAS-expanders, så han har plass til nok disker (og kan utvide videre med mer disk-kabinetter hvis behovet skulle oppstå. Full worklog kan leses i denne tråden.

 

The 4 9200-8e are in PCI slots 1,2 and 6,7 so that they are split across two independent PCI-e 2.0 busses on the Supermicro X8DTH-6F motherboard.

 

 

 

 

 

Ser ut som han bruker 4 stk kontrollere og 48 harddisker. Faktisk ikkje så veldig imponert :p

 

 

 

 

Kanskje jeg må kjøpe 2 stk Areca 1880-ix 24, og fylle disse opp og sette opp et software raid i windows å få enda høyere hastigheter  :cool:. Tror jeg skal klare meg med den ene som er på vei  :love:

 

 

 

 

 

Lenke til kommentar

Ser ut som han bruker 4 stk kontrollere og 48 harddisker. Faktisk ikkje så veldig imponert :p

 

Ser ut til at jeg blingsa litt der ja. Uansett, 48 disker er ikke dagligdags for alle (tenker nå privat). Har selv ikke så veldig mange færre disker selv, når jeg tenker etter, men jeg ser ikke på meg selv som helt dagligdags heller :)

 

Kanskje jeg må kjøpe 2 stk Areca 1880-ix 24, og fylle disse opp og sette opp et software raid i windows å få enda høyere hastigheter  :cool:. Tror jeg skal klare meg med den ene som er på vei  :love:

 

For all del, det er nok flere enn meg som er interessert i å se noe benchmark på Areca 1880-serien, hvis du har nok disk til å fylle opp ett og to kort (eller bruk av sas-expander) :)

Har du fått noen ETA på kortet?

Lenke til kommentar

De sa at det kanskje kom Fredag, altså i dag. Men jeg tror det ikkje før jeg har det i hånda  :thumbup: Skal teste litt med 15k.5 sasdiskene jeg har (12 stk) og en del sata. Og selvfølgelig Crucial c300 da. Den er jo obligatorisk.

 

 

 

 

Det blir spennende å se hva kortet er godt for. Er jo enda fornøyd med Areca 1680ix en da.

 

 

 

 

 

 

 

 

Lenke til kommentar

Men jeg er fremdeles like avhengig av raidkort.

Nei, det ordner zfs. Alt du trenger er kontrollerkort nok til å koble alle diskene til maskina di.

 

Med den løsningen du nevner her, kan jeg kanskje beholde raidkortet jeg allerede har og heller bytte ut 2x2TB med 4x1TB i raid5 (evt. 4x1,5TB)?

Ja, det kan du.

Ble litt usikker her nå.

Mener du at den klarer å kjøre raid 5 selv om jeg ikke har raidkort som støtter det? :hmm:

Altså at jeg kun trenger nok sata kontakter? :hmm::hmm:

 

Ja, dersom du kjører zfs så trenger du ikke raid-kort - det ordner zfs.

Lenke til kommentar

hardware raid kort er ikke bare himmelen det heller. Har sett raid kort som gikk til H og tok dataene med seg to ganger, 1 privat og en i jobb sammenheng. I privat sammenheng ville ikke produsenten fortelle meg om en nyere modell ville klare å gjenkjenne raidet fra den gamle kontrollern som var ute av produksjon.

 

Kjörer nå W2008 server med 4 stk 2TB disker i software raid 5 med sata kontrollerene på hovedkortet. Bytta nettopp ut 4x1TB disker. Ytelsa er ikke så mye å hoppe i taket for men den klarer å skrive >70mb/sek (ifölge total commander) samtidig som den resynkroniserer seg og det er mer enn godt nok for meg. Det skal bare servere musikk og filmer i heimen likevel.

Lenke til kommentar

Etter mine runder innom software RAID for Linux og hele rotet jeg sliter med å få det til å funke så tror jeg nok at hardware kontrollere er enklere, er bare å koble opp, smekke inn driver, bygge array og deretter kjøre.

Mens med software RAIDet, ihvertfall mdadm så er det ikke helt såpass enkelt, en drøss med småtteri her og der og merkelige ting som må fikses kun for å få arrayet til å starte og mounte på boot.

Har fått det til å mounte automatisk så langt men det ser faktisk ut til å få det til å starte uten at jeg manuellt gjør det er en god del verre.

 

Har tatt en benchmark på hele greia, og må få sjekket om det er noe fart i den, men var ikke helt blåst vekk av tallene, men i allefall bedre enn singel disk og da skal man vell egentlig ikke klage?

Lenke til kommentar

Linux software raid krever eindel operasjoner å få til, du burde kanskje vurdert ZFS på FreeBSD/OpenSolaris heller som er ein administrators våte draum.

 

Har du disker som er klare så er kommandoen

zfs create navnpåraid raidz1 disk1 disk2 disk3

 

Ingen venting, er klart til bruk med ein gang. Det finnes ikkje noko som er enklare, sjølv ikkje med Windows.

 

FreeBSD sin quick-start guide viser deg enkelt korleis ein kjem i gang med zfs

Lenke til kommentar

Har fått det til å mounte automatisk så langt men det ser faktisk ut til å få det til å starte uten at jeg manuellt gjør det er en god del verre.

Det er jo ikke så forferdelig mye som skal til. Opprette partisjoner med linux raid autodetect. Melde inn i RAID, så skal de bli dratt opp automatisk. Selv om jeg pleier å ta en mdadm --detail --scan >> /etc/mdadm/mdadm.conf bare for å ha dokumentert hvilke raid arrays som skal være til stede.

Lenke til kommentar

Nja, holder en tråd gående på Ubuntuforums akkurat nå, grunnen til at jeg kjører Linux skyldes mest at jeg er delvis kjent med GUIet og at jeg i tilegg kan ha VMWare kjørende, da jeg har i allefall en virtualisert maskin som skulle kjørt på serveren.

 

Så langt kan jeg ikke få arrayet til å starte, men får beskjed under oppstart at Ubuntu venter på md0 eller RAID arrayet skal starte slik at det kan mountes.

Dessverre skjer dette om jeg aldri så lenge venter, og jeg er ikke klokere på hvor dette ligger.

Må vell snart fri til kpolberg og be om Software RAID "Veihjelp" :D

Lenke til kommentar

FreeNAS 8.1 med ZFS er ein mykje betre investering enn Windows og hardware raid.

ZFS er neste generasjons filsystem som passer ekstra godt på dataen din. Det betyr ikkje at du vil stripe fire harddisker men at du vil kjøre raid 10 eller raid5.

Hvor finner jeg v.8.1?

Jeg finner kun nightly builds og der er siste versjon 0.7.2.5266.

 

Jeg har lastet ned og installert 0.7.1 (stable).

Er det uklokt av meg å satse på ZFS i den versjonen?

Lenke til kommentar

Er det den versjonen med ZFS v6? Den er isåfall kjent for å forårsake fleire kernel panics om den ikkje er korrekt tunet. Du får prøve og sjå.

 

FreeNas 0.8.1 er foreløpig utviklingsversjon, finnes på SVN

 

Eg bruker FreeBSD 8.1 og administerer igjennom SSH, det er kanskje litt heftig lærekurve. Men absolutt verdt det ;)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...