nor50 Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Dette må vel være for de som ikke trenger kjapp lagring.. mye bedre med 3 stykk 4TB disker. Greit det om man ikke har bruk for store volum, men det finnes jo mange som må ha MYE lagringsplass! Lenke til kommentar
Mr.Eide Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Kjempekos når denne blir fylt til randen og kræsjer på et ubestemt tidspunkt. Har hatt Seagates 3TB HDD i filler og lært leksa den harde veien. RAID 1 og 5 på lagringsdisker her i heimen siden. Blir dyr fornøyelse med 10TB i et slikt oppsett, og får vondt i magen bare på tanken av hvor lang tid det ville tatt å rekonstruere et array av slike : *host* jottacloud *hark* Lenke til kommentar
Belfaborac Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 (endret) Alltid "morsomt" med folk som tror deres personlige anekdoter er allmenngyldige. Jeg begynte å kjøre RAID en gang i andre halvdel av 90-tallet og hatt dårlige opplevelser med Seagate, WD, Toshiba, Fujitsu, Maxtor og Quantum. Ser man bort fra RAID-bruk har jeg også hatt dårlige opplevelser med Conner, Micropolis og trolig et par-tre til som jeg forlengst har glemt. Om jeg skulle anbefale disker på samme syltynne grunnlag folk vanligvis på fora så kunne jeg kun nevne Samsung, som er den eneste av dagens produsenter jeg aldri har hatt problemer med (gitt at HGST er en del av WD). I dag har jeg forlengst gitt opp RAID og alle snurrediskene mine har vært fra Seagate siste fire-fem år - uten at jeg har hatt problemer av noe slag. Det samme, eller det motsatte, kunne vært tilfelle uansett hvilke disker jeg hadde valgt. Når det gjelder RAID så ga jeg opp det når jeg måtte over 2TB diskstørrelse. Å vente i dagevis på et rebuild frister lite og når hver døde disk øker risikoen for en ny død disk eksponentielt så gir det heller ingen mening i et sikkerhetsperspektiv for en vanlig bruker. Om du synes personlig anekdoter er så verdiløse kan du jo se på statistikken fra store aktører, som feks backblaze, seagate kommer mildt sagt uheldig ut. Kanskje har de blitt bedre, kanskje ikke, vi får se. Øker risikoen for en ny død disk eksponentielt? Hva legger du egentlig i det? AtW Personlige anekdoter (selvsagt inkludert mine egne) er uvegerlig verdiløse, da de har null statistisk signifikans. Tallene fra Backblaze er en anelse mer interessante, men gitt at diskene opererer i omgivelser som skiller seg dramatisk fra det som er normen hos en vanlig bruker (massive datasentere med høy temperatur, konstant vibrasjon, etc, etc) og at Backblaze har som strategi å til enhver tid kjøpe de billigste diskene som er å finne, deriblant en stor andel grey market imports med uvisst opphav, så er relevansen for en vanlig hjemmebruker ganske så mager. Gjør et kjapt google-søk så finner du en lang rekke artikler som omhandler akkurat dette. Når det gjelder den eksponentielle økningen i risiko så er det bedre å lese her, her og her enn at jeg forsøker å forklare selv. Jeg skulle forsåvidt ikke ha sagt noe spesifikt om disker på >2TB (og jeg glemte å si jeg tenkte på RAID5 spesifikt); det er mer en situasjon som når et "kritisk punkt" ved en RAID-størrelse ~12TB (utledet av den typiske feilraten på 10^14,som selvsagt ikke en hard limit, men kun en guide). Endret 24. juli 2016 av Belfaborac Lenke til kommentar
kremt Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Du får nå si hva du vil, men brent barn skyr ilden. Noe som har gitt meg flere negative opplevelser er det ikke sannsynlig at jeg noensinne oppsøker igjen. Lenke til kommentar
Belfaborac Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Skulle jeg ha tenkt så overfladisk ville det vært så godt som umulig for meg å bygge en PC i dag, siden jeg har dårlige erfaringer med stort sett alle merker. 2 Lenke til kommentar
ATWindsor Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Alltid "morsomt" med folk som tror deres personlige anekdoter er allmenngyldige. Jeg begynte å kjøre RAID en gang i andre halvdel av 90-tallet og hatt dårlige opplevelser med Seagate, WD, Toshiba, Fujitsu, Maxtor og Quantum. Ser man bort fra RAID-bruk har jeg også hatt dårlige opplevelser med Conner, Micropolis og trolig et par-tre til som jeg forlengst har glemt. Om jeg skulle anbefale disker på samme syltynne grunnlag folk vanligvis på fora så kunne jeg kun nevne Samsung, som er den eneste av dagens produsenter jeg aldri har hatt problemer med (gitt at HGST er en del av WD). I dag har jeg forlengst gitt opp RAID og alle snurrediskene mine har vært fra Seagate siste fire-fem år - uten at jeg har hatt problemer av noe slag. Det samme, eller det motsatte, kunne vært tilfelle uansett hvilke disker jeg hadde valgt. Når det gjelder RAID så ga jeg opp det når jeg måtte over 2TB diskstørrelse. Å vente i dagevis på et rebuild frister lite og når hver døde disk øker risikoen for en ny død disk eksponentielt så gir det heller ingen mening i et sikkerhetsperspektiv for en vanlig bruker. Om du synes personlig anekdoter er så verdiløse kan du jo se på statistikken fra store aktører, som feks backblaze, seagate kommer mildt sagt uheldig ut. Kanskje har de blitt bedre, kanskje ikke, vi får se. Øker risikoen for en ny død disk eksponentielt? Hva legger du egentlig i det? AtW Personlige anekdoter (selvsagt inkludert mine egne) er uvegerlig verdiløse, da de har null statistisk signifikans. Tallene fra Backblaze er en anelse mer interessante, men gitt at diskene opererer i omgivelser som skiller seg dramatisk fra det som er normen hos en vanlig bruker (massive datasentere med høy temperatur, konstant vibrasjon, etc, etc) og at Backblaze har som strategi å til enhver tid kjøpe de billigste diskene som er å finne, deriblant en stor andel grey market imports med uvisst opphav, så er relevansen for en vanlig hjemmebruker ganske så mager. Gjør et kjapt google-søk så finner du en lang rekke artikler som omhandler akkurat dette. Når det gjelder den eksponentielle økningen i risiko så er det bedre å lese her, her og her enn at jeg forsøker å forklare selv. Jeg skulle forsåvidt ikke ha sagt noe spesifikt om disker på >2TB (og jeg glemte å si jeg tenkte på RAID5 spesifikt); det er mer en situasjon som når et "kritisk punkt" ved en RAID-størrelse ~12TB (utledet av den typiske feilraten på 10^14,som selvsagt ikke en hard limit, men kun en guide). Backblaze sine tall er faktisk høyt interessante, og mye av kritikken er heller hva jeg vil kalle mager, om vitner om manglende forståelse eller overdrivelser. Tallene er ikke perfekte såklart, men jeg inviterer deg til å finne bedre tall. Ingen av de handler om eksponensiell økt risiko for en ny død disk. Tvert imot snakker de ikke om døde disker i det hele tatt, men om URE, som de baserer på helt teoretiske tall som antakelig ikke stemmer, og antakelsen om at 1 bitfeil er det samme som å miste all data. AtW Lenke til kommentar
myhken Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Jeg har nå i ca to år kjørt en rekke Seagate Archive 8 TB disker på mitt system. Bruker dem til å f.eks lagre filmsamlingen min, som det ikke skrives noe til, men leses av en gang i blant. Jeg har aldri kjørt RAID og kommer nok ikke til å gjøre det heller. Ryktene skal ha det til at Seagate har blitt mye bedre med 4TB disker og oppover, men likevel opplevde jeg nokså tidlig, på ver.1 av 8TB disken (den selges i ver.2 nå) at en disk røk. Tok noen dager å legge tilbake alle filmene igjen, heldigvis hadde jeg de gamle diskene i hus enda. Men utover det har jeg ikke opplevd noen problemer med Seagate 8 TB disker, og når/om prisen blir riktig, kommer nok 10TB disker til å finne veien inn i systemet mitt også 1 Lenke til kommentar
siDDis Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Så du synes rebuild tid på 2 veker er ok? Rebuildtid bør være på under 1 dag. Over det er å be om trøbbel. Det tar ikke to uker å rebuilde et slikt raid. Det tar under en dag på mitt oppsett. AtW I teorien, du skal vell også bruke raidet samtidig som det rebuildes? La oss ta et enkelt regnestykke. Om du greier å skrive 100MB/s i snitt, så greier du å skrive 360GB timen. 10000/360 er ca 28 timer. Det er best case om raidet idler. I praksis, så har du random IO som brukes til andre ting, noen ganger kan det vere mye, det spørs hva du bruker raidet til. Når jeg sjekker raidet mitt, som for det meste idler, så tok det 4 timer og 21 minutt å rebuilde 685GB(2TB disk) eller ca 22MB/s. Diskene greier fint 80-140MB/s ved vanlig sekvensiell skriving. Men all data skal også scannes for å rekonstruere det. Dette er typisk rebuild speed! Hadde det vært 6,8TB, så hadde det tatt 40-45 timer. Eller 68TB så snakker vi om 400 timer. Nå er det forskjell på hardware og ZFS rebuild, då hastigheten er mer lineær med hardware raid. Men samtidig så må du rebuilde "hele" disken også har du ikke f.eks self-healing fordelen til ZFS. Rebuildhastigheten er det ellers minimal forskjell på. Lenke til kommentar
Lindsay Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Når det kommer til RAID så blir det kjørt hovedsaklig ZFS her. Noen måneder siden jeg prøvde 3 stykk 8TB av westerndigital red Planen på sikt er nok å ha 1 likedan hdd (størrelse) som de enkelte pools er i størrelse. Har Jottacloud, men spørs jo om en vil overskride 10TB med glans og betale for overforbruk. Men størstedelen er jo filmsamlingen og den kan rippes på nytt, dog det tar sin tid. DVDfab og Nvidia og sine cudakjerner gjør jo jobben betraktelig raskere når en snakker om HEVC ihvertfall. Angående Seagate 3TB var det jo trøbbel med western digital sine 3TB i sin tid. Lenke til kommentar
ATWindsor Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Så du synes rebuild tid på 2 veker er ok? Rebuildtid bør være på under 1 dag. Over det er å be om trøbbel. Det tar ikke to uker å rebuilde et slikt raid. Det tar under en dag på mitt oppsett. AtW I teorien, du skal vell også bruke raidet samtidig som det rebuildes? La oss ta et enkelt regnestykke. Om du greier å skrive 100MB/s i snitt, så greier du å skrive 360GB timen. 10000/360 er ca 28 timer. Det er best case om raidet idler. I praksis, så har du random IO som brukes til andre ting, noen ganger kan det vere mye, det spørs hva du bruker raidet til. Når jeg sjekker raidet mitt, som for det meste idler, så tok det 4 timer og 21 minutt å rebuilde 685GB(2TB disk) eller ca 22MB/s. Diskene greier fint 80-140MB/s ved vanlig sekvensiell skriving. Men all data skal også scannes for å rekonstruere det. Dette er typisk rebuild speed! Hadde det vært 6,8TB, så hadde det tatt 40-45 timer. Eller 68TB så snakker vi om 400 timer. Nå er det forskjell på hardware og ZFS rebuild, då hastigheten er mer lineær med hardware raid. Men samtidig så må du rebuilde "hele" disken også har du ikke f.eks self-healing fordelen til ZFS. Rebuildhastigheten er det ellers minimal forskjell på. Nå har det jo vist seg at ditt raid ikke er spesielt raskt, les tidligere diskusjoner. Spesielt ikke på skriving. Nå har jeg riktignok ikke prøvd 10 TB konkret, men jeg har rebuildet større drev i et raid5-setup, og teori og praksis er svært nærme hverandre. Hvorfor jeg skulle hamre raidet med random io under noe så kritisk om en rebuild får andre svare på. AtW 2 Lenke til kommentar
Ziff Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Synd de ikke kommer i 5x00rpm. Er ikke interessert i mer støy eller strømbruk enn det jeg må ha. Lenke til kommentar
myhken Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Men størstedelen er jo filmsamlingen og den kan rippes på nytt, dog det tar sin tid. DVDfab og Nvidia og sine cudakjerner gjør jo jobben betraktelig raskere når en snakker om HEVC ihvertfall. Du får gjøre som jeg har gjort de siste 13 årene jeg har digitalisert filmsamlingen min. Hver gang jeg bytter til en større disktype, beholder jeg de gamle diskene og sender dem ut av huset. Etter et par kræsj har jeg lært å merke de gamle diskene bedre, men det har jo også blitt lettere jo større diskene har blitt. Nå er backupen på 1.5 TB disker og 3 TB disker, mens jeg har 8 TB disker i pcen. Lenke til kommentar
Nizzen Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Et tips.. Ikke kjøp Seagate... Har hatt 7 Seagate Harddisker. Ingen av de varte lenger en 5 eller 6 år... Ett tips er å ikkje høre på enkeltpersoner Selv har jeg 16 stk Seagate desktop 4TB som også har ganske lite feil i følge Backblaze Hitachi har jeg også 16 stk av 3TB modellen. Denne modellen kommer vel best ut av samtlige harddisker på Backblaze Lenke til kommentar
Nizzen Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 (endret) Så du synes rebuild tid på 2 veker er ok? Rebuildtid bør være på under 1 dag. Over det er å be om trøbbel. Noobs har ALLTID mere trøbbel Mener ikkje deg da Jesus saves, GOD takes backup Endret 24. juli 2016 av Nizzen 1 Lenke til kommentar
kremt Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Nizzen har jo aldri problemer med noe, så dårlige produkter finnes nok ikke. Lenke til kommentar
Nizzen Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Nizzen har jo aldri problemer med noe, så dårlige produkter finnes nok ikke. Joda, AMD Lenke til kommentar
siDDis Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Så du synes rebuild tid på 2 veker er ok? Rebuildtid bør være på under 1 dag. Over det er å be om trøbbel. Det tar ikke to uker å rebuilde et slikt raid. Det tar under en dag på mitt oppsett. AtW I teorien, du skal vell også bruke raidet samtidig som det rebuildes? La oss ta et enkelt regnestykke. Om du greier å skrive 100MB/s i snitt, så greier du å skrive 360GB timen. 10000/360 er ca 28 timer. Det er best case om raidet idler. I praksis, så har du random IO som brukes til andre ting, noen ganger kan det vere mye, det spørs hva du bruker raidet til. Når jeg sjekker raidet mitt, som for det meste idler, så tok det 4 timer og 21 minutt å rebuilde 685GB(2TB disk) eller ca 22MB/s. Diskene greier fint 80-140MB/s ved vanlig sekvensiell skriving. Men all data skal også scannes for å rekonstruere det. Dette er typisk rebuild speed! Hadde det vært 6,8TB, så hadde det tatt 40-45 timer. Eller 68TB så snakker vi om 400 timer. Nå er det forskjell på hardware og ZFS rebuild, då hastigheten er mer lineær med hardware raid. Men samtidig så må du rebuilde "hele" disken også har du ikke f.eks self-healing fordelen til ZFS. Rebuildhastigheten er det ellers minimal forskjell på. Nå har det jo vist seg at ditt raid ikke er spesielt raskt, les tidligere diskusjoner. Spesielt ikke på skriving. Nå har jeg riktignok ikke prøvd 10 TB konkret, men jeg har rebuildet større drev i et raid5-setup, og teori og praksis er svært nærme hverandre. Hvorfor jeg skulle hamre raidet med random io under noe så kritisk om en rebuild får andre svare på. AtW Mitt raid er faktisk ganske raskt og skikkelig satt opp. Jeg kan ikke se noe forskjell på mitt eller andre sin rebuild hastighet som jeg finner på internett. Lenke til kommentar
ATWindsor Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Noe må det jo være, når du har påstått man aldri kan få write over hastigheten til en disk. Men det er forsåvidt riktig på akkurat rebuild at du ikke får det. Det er bare det at denne disken ligger på rundt 200 MB/s, dvs ca 14 timer. Pluss litt fordi man ikke får den hastigheten over hele disken osv. AtW Lenke til kommentar
icc Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Kan se ut til at det er en del misforståelser ute og går. Man bør aldri bruke RAID som backup. RAID er for HA eller ytelse. Lenke til kommentar
ATWindsor Skrevet 24. juli 2016 Del Skrevet 24. juli 2016 Kan se ut til at det er en del misforståelser ute og går. Man bør aldri bruke RAID som backup. RAID er for HA eller ytelse. Hvem har sagt de bruker RAID som backup? Dessuten er det en feilaktighet at raid kun er nyttig for HA eller ytelse. AtW Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå