GullLars Skrevet 16. juni 2011 Del Skrevet 16. juni 2011 Problemet var vell at WD Green's TLER var satt for høyt eller lavt i forhold til enterprise disker, så det kunne føre til at de droppet ut av RAID. Med ny firmware der du kan stille på følsomheten/tolleransen RAID kontrolleren har ovenfor TLER burde det ikke være noe problem lenger (med dropping av disker). Lenke til kommentar
A.J Green Skrevet 18. juni 2011 Del Skrevet 18. juni 2011 er passthrough det samme som jbod? prøver å koble til en singel disk som har data på seg, men når jeg kobler den til og velger pass through er den fast bestemt på at jeg må formatere den. noen som kan hjelpe meg? Lenke til kommentar
Nizzen Skrevet 18. juni 2011 Forfatter Del Skrevet 18. juni 2011 Når jeg har satt ssder til passtrough på arecacontrolleren, så har de fungert fint på integrerte kontrollere etterpå. Husker ikkje om jeg har gjort det den andre veien da. Kanskje du har en dynamisk disk, eller noe annet. Lenke til kommentar
Nizzen Skrevet 30. juni 2011 Forfatter Del Skrevet 30. juni 2011 I helgen ser det ut som jeg får endelig kjørt softwareraid med 2 stk Areca 1880 kontrollere En iometer 4k random read cachetest kan bli spennende! Lurer på om jeg får over 300k IOPS? Noen som vil komme med noen gjetninger på hvor mange iops jeg kan klare? Lenke til kommentar
Anv Skrevet 30. juni 2011 Del Skrevet 30. juni 2011 2 stk 1880 Skulle bli rimelig heftig, rundt 290-300' iops burde være mulig, kommer helt an på størrelsen av testfilen Hva er premien Lenke til kommentar
SuperRipper Skrevet 8. desember 2011 Del Skrevet 8. desember 2011 Noen som har testet 4TB disker på kontrolleren, eller evt har noen å anbefale på generelt grunnlag? Begynner å gå tom for plass Lenke til kommentar
Nizzen Skrevet 8. desember 2011 Forfatter Del Skrevet 8. desember 2011 Noen som har testet 4TB disker på kontrolleren, eller evt har noen å anbefale på generelt grunnlag? Begynner å gå tom for plass Det er ikkje noe forskjell på å støtte 3 eller 4 TB disker. Siden Areca virker å støtte det meste, så er det ikkje feil å velge Areca Lenke til kommentar
GullLars Skrevet 8. desember 2011 Del Skrevet 8. desember 2011 Noen som har testet 4TB disker på kontrolleren, eller evt har noen å anbefale på generelt grunnlag? Begynner å gå tom for plass Det er ikkje noe forskjell på å støtte 3 eller 4 TB disker. Siden Areca virker å støtte det meste, så er det ikkje feil å velge Areca Så lenge du har dype lommer er Areca aldri feil Lenke til kommentar
SuperRipper Skrevet 8. desember 2011 Del Skrevet 8. desember 2011 (endret) Det er ikkje noe forskjell på å støtte 3 eller 4 TB disker. Siden Areca virker å støtte det meste, så er det ikkje feil å velge Areca Ja, den støtter disker over 2TB, men jeg lurte på en konkret anbefaling. Har kun hatt samsung på kontrolleren til nå, men de er jo slukt av Seagate... Er det forsatt lurt å holde seg unna WD green? Edit: Siden 4TB ikke var klar før februar, kjøpte jeg liksågodt 4 st Samsung F4 2TB. Nå blir det spennende å se hvordan Arecaen takler utviding fra 4 til 8 disker, samt overgang fra raid 5 til raid 6. Endret 10. desember 2011 av SuperRipper Lenke til kommentar
JKJK Skrevet 7. februar 2012 Del Skrevet 7. februar 2012 Litt off topic, men likevell: https://www.facebook...43963015636261/ Vi som krever at alle som har opplevd RAID-krasj skal ha rett på senskadeerstattning på lik linje med krigsveteraner. Dette innebærer også sykepenger/delt uføretrygd fra dag 1 og rett til permisjon for å sørge over sine døde disker og kunne ta vare på pårørende raidkontrollere. Rehabilitering/array-rebuild stønad må regnes ut etter ant. TB tapt data * ant. disker i array. HOT-spare disker på blåresept og fradrag på skatten for BBU innen 2013!!!! Lenke til kommentar
JKJK Skrevet 25. september 2012 Del Skrevet 25. september 2012 (endret) Da er snart ny filserver på tur i posten. ARC-1882IX-24 m/BBU 15x Seagate ST3000DM001 (skal vistnok være gode for desktop raid / home servers / nas). 2x Intel 320 i raid 1 som OS-disk. Jeg er usikker på hvordan jeg burde raide dette. Hver drivebay har 5 diskplasser (5x3=15). Har sett på Raid 6, Raid 10 og Raid-Z2/RaidZ-3. Alle diskene i ett raid er vel ikke anbefalt med tanke på rebuild time og mulighet for oppgradering senere. Såvidt meg bekjent (etter å ha googlet mye), er det ikke anbefalt å overstige 7 disker pr. raid 6, spesielt ikke med så store disker. Ser følgende scenarioer: 3x Raid6 volumes. = 8,2TB Netto pr. volume. = 24,6TB Netto totalt. 1x Raid6 volume = 35,5TB Netto. 3x Raid-Z2 volumes (3 vdevs i zpoolen) = 8,2TB Netto pr. volume = 24,6TB Netto totalt. 1x Raid-Z3 volume (1vdev). = 32,7TB Netto. Ved bruk av Raid-Z vil man jo ikke få ytelsen fra arecaen (vdevs må kjøre i passthrough). Alle diskene i èn vdev vil visstnok også gi dårlig ytelse. Derfor heller jeg mest mot Raid 6, men er litt usikker på om jeg skal kjøre 3 volumes, eller ett stort volume. Det siste gjør det i alle fall nermest økonomisk umulig å oppgradere til f.eks. 5TB disker om et par år. Kjører jeg 3 volumes, kan jeg ta det etappevis. Den største fordelen jeg ser (bortsett fra at Raid-Z2 vistnok er noe sikrere enn Raid 6) er muligheten for en zpool, slik at man ser bare ètt lagringsområde, selv om man har flere volumes. Finnes det alternativer for zpools i windows (server 2012/storage server) som takler at man bruker raid (med storage spaces er dette vistnok ikke anbefalt)? Endret 25. september 2012 av JKJK Lenke til kommentar
siDDis Skrevet 25. september 2012 Del Skrevet 25. september 2012 Du kan exportere diskane som single raid devices til OSet med Areca kortet ditt. Då vil du kunne dra nytte av ytelsen til Arecaen Eit raidz2 med 15 disker går fint, har du eit fullt raid så vil ein scrub/resilver ta nokre få dagar. Bare ikkje aktiver dedup, då tar ein scrub/resilver minst 10-20x lengre tid. Ein anna måte og auke ytelsen drastisk på er å aktivere LZ4 compression som snart kjem i Illumos og FreeBSD https://www.illumos.org/issues/3035 Eg stusser meir på at du skal bruke 2 SSDer som OS disk, bruke dei heller som cache og ZIL log til ZFS. Til OS disker så er to usb3 minnepenner meir enn godt nok. Lenke til kommentar
JKJK Skrevet 25. september 2012 Del Skrevet 25. september 2012 (endret) kjøper bare 2stk ssd til for cache og zil evt. bruke diskene som single raids som vdevs har jeg lest en god del advarsler om. Det er ikke best practice i det heletatt. Oppgraderingsmessig har jeg mer tro på 3 volumes Endret 25. september 2012 av JKJK Lenke til kommentar
siDDis Skrevet 25. september 2012 Del Skrevet 25. september 2012 Det er mykje feilinformasjon om ZFS ute og går. Blant anna at du må ha 1GB ram per TB med data. 15 stykk 3 TB disker fungerer fint nok. Har du eit krav om at resilver skal ta mindre enn 6 timar så er nok 3 volumes den rette vegen å gå. Lenke til kommentar
JKJK Skrevet 19. februar 2017 Del Skrevet 19. februar 2017 Kom over denne tråden nok en gang.Er det noen som har den fjerneste anelse om hvor dyrt det er å bytte ut 15x enterprise satadisker i en smell? (Ja, jeg endte opp med alle diskene i et raid 6). Har bytta fra fucked seagate ST3000DM001 en gang til WD RE4. Fikk en god pris pga. ST3000DM001 da var kjent for å være fucked, men likevel. Nå vurderer jeg å bytte ut 4TB RE4 med 8TB+ ... RE4 virker plutselig veldig uaktuelt. Noen som har efaring med WD Red Pro ? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå