Anders Jensen Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 Mreniha: SSD er for dyrt til masselager i overskuelig fremtid. Kapasitetskalering på Flash minne har også en noe tvilsom fremtid. Lenke til kommentar
L4r5 Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 Hvorfor diskuterer vi harddisker? *glane på ssd* Fordi jeg er født vakker i stedet for rik. Lenke til kommentar
Anders Jensen Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 (endret) Høres merkelig ut, selv mitt gamle kort rebuilder et arrat på den størrelsen i løpset av 12-16 timer. Er det virkelig vanlig å få en read error i løpet av 12-16 timers lesing? Hvis du leser på diskspesifikasjonen din vil du se at feilrate er gitt ved sannsynlighet per leste byte. Om dette stemmer i praksis er noe annet. Argumentet med URE er egentlig vel så mye mot store RAID som store disker. Store disker øker imidlertid rebuild tid hvis du har kraftig kontroller og er dermed dårlig for de som krever tilgjengelighet og det er vel trivielt å forstå at det å være sårbar over lengre tid gir dårligere pålitelighet? Endret 30. juni 2010 av Anders Jensen Lenke til kommentar
ATWindsor Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 Høres merkelig ut, selv mitt gamle kort rebuilder et arrat på den størrelsen i løpset av 12-16 timer. Er det virkelig vanlig å få en read error i løpet av 12-16 timers lesing? Hvis du leser på diskspesifikasjonen din vil du se at feilrate er gitt ved sannsynlighet per leste byte. Om dette stemmer i praksis er noe annet. Argumentet med URE er egentlig vel så mye mot R5 som store disker. Store disker øker rebuild tid hvis du har kraftig kontroller og er dermed dårlig for de som krever tilgjengelighet og det er vel trivielt å forstå at det å være sårbar lengre gir dårligere pålitelighet? Jada, argumentet er helt forståelig, men det vil gjelde i alle tilfeller, det jeg kanskje fisker litt etter er en slags kvaintifisering, elelr forsøk på det, angående hvor stor reell nedgang i pålitlighet man får, når begynner det å bli et seriøst problem for forskjellige grupper, når krysses grensa der disken er "for stor", selvsagt er det avhengig av bruk, men per i dag virker dette litt vel "løst" for meg i den forstand at jeg ikke føler jeg kan si om 2 GB, 200 GB, 2000 GB, eller 20 000 GB er for stor disk for en noenlunde normal konsument. Jeg føler jo at rundt 2TB er en slags grei størrelse å holde seg rundt for meg, men det er ikke akkurat basert på harde data. AtW Lenke til kommentar
mad_arab Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 Poenget er at en er ute å sykler med en gang en baserer seg på at disker ikke skal feile. En må legge til grunn at disker feiler ofte og se på hvordan en kan lage et system som tåler dette. Da er mange små disker å foretrekke fremfor få store. Tenker du på privatbrukere eller bedrifter? Uansett synes jeg ikke dette prinsippet gir særlig mening. For det første, hva er "stort" og hva er "smått"? Hvis utsagnet ditt skal gi mening må dette defineres utifra størrelser på en viss andel av datamengden man har, ikke på konkrete verdier i GB. Som privatbruker så ser jeg liten grunn til å kjøpe mindre disker enn de som gir bra verdi pr GB. Jeg har lest flere argumentere for at de foretrekker å ha mange 1Tb disker istedetfor flere 1.5Tb eller 2Tb. Problemet er at om noen år så gir ikke dette mening lenger, da ønsker de "selvsagt" større disker. Jeg får ikke solgt mine gamle 20Mb, 9Gb eller 40Gb disker uansett hvor mye disse personene mener at mindre=tryggere. Hvis disker klarer å ta igjen mitt plassbehov ser jeg kun for meg å kjøre 2 disker i maskinen min i fremtiden, en kjapp (SSD e.l.) for system, programmer og spill, og en enorm lagringsdisk for "alt annet". Backup tar jeg uansett på medium som ikke står i maskinen til vanlig. Lenke til kommentar
dios Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 Jada, argumentet er helt forståelig, men det vil gjelde i alle tilfeller, det jeg kanskje fisker litt etter er en slags kvaintifisering, elelr forsøk på det, angående hvor stor reell nedgang i pålitlighet man får, når begynner det å bli et seriøst problem for forskjellige grupper, når krysses grensa der disken er "for stor", selvsagt er det avhengig av bruk, men per i dag virker dette litt vel "løst" for meg i den forstand at jeg ikke føler jeg kan si om 2 GB, 200 GB, 2000 GB, eller 20 000 GB er for stor disk for en noenlunde normal konsument. Jeg føler jo at rundt 2TB er en slags grei størrelse å holde seg rundt for meg, men det er ikke akkurat basert på harde data. Det finnes en student som har jobbet med noe som likner på det du etterspør: 37,764,768,000,000 Simulations I tillegg ble det i 2008 publisert en artikkel om datakorrupsjon basert på reelle feil i disker i bruk, basert på analyse av 1,53 millioner disker over 41 måneder i mange av NetApps installasjoner: An Analysis of Data Corruption in the Storage Stack Lenke til kommentar
Nisselord Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 Vil ett 32 bits system kunne bruke denne da? Hvorfor skulle det ikke det? Caliente blander nok ROM og RAM Lenke til kommentar
dios Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 Caliente blander nok ROM og RAM Ikke helt. ROM = Read-Only Memory (f.eks. CD-ROM, DVD-ROM, BD-ROM, EEPROM) RAM = Random Access Memory (f.eks. DDR-SDRAM, SRAM, RDRAM, NVRAM - brukes i bl.a. SSD) Men Caliente blander begrensningene på hvor mye hurtigminne man kan bruke med hvor stor harddisk/store partisjoner/store filsystem man kan ha. Lenke til kommentar
Anders Jensen Skrevet 30. juni 2010 Del Skrevet 30. juni 2010 (endret) ATWindsor, mad_arab: Det er selvfølgelig noe varierende hva som er for stort, og det er ikke noen hard grense. Det en må ta høyde for er at avhengig av krav til service nivå og typen redundans som benyttes: 1) Hvor lang rebuild tid er akseptabel. Ytelse/kapasitet forholdet på diskene avgjør tiden om kontroller ikke er flaskehalsen. 2) Hvor stor sannsynlighet for at en må gå tilbake til backup er akseptabel. Dette avhenger av feilrate/kapasitet forholdet til diskene. Altså ikke et rent kapasitet spørsmål men en kombinasjon av kapasitet, ytelse og feilrate holdt opp mot krav og utenforliggende redundans. Siden feilrate og ytelse ikke forbedres i samme tempo som kapasitet blir forholdet stadig dårligere. Workaround er å implementere stadig bedre utenforliggende redundans. RAID 6 eller RAID Z3/Zn f.eks, men dette koster. For å bremse utvilkingen kan en bruke flere små disker heller enn få store. Det reduserer ikke feilraten, men bidrar til å dempe trenden med de stadig dårligere ytelse/kapasitet og feilrate/kapasitet forholdene som vil øke påliteligheten, slik forklart her. Endret 1. juli 2010 av Anders Jensen Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå