Gå til innhold

Ny formatering kan utvide disken


Anbefalte innlegg

Det tidsspørsmålet er ikke prekært. Det tar ennå mange år før SSD klarer å slå HDD på dets sterkeste punkt: kr/GB. Det skjer trolig en gang mellom 2015 og 2020 så fremt begge teknologiene klarer å fortsette den eksponentielle kapasitetstrenden. Inntil den tid vil HDD og SSD leve godt side om side til ulike formål.

Lenke til kommentar
Videoannonse
Annonse
Hmm, skeptisk. Hvis en slik disk med en type teknologi àla dette ikke klarer å løse dette i instruksjonsett i en integrert krets, så vil jeg ikke ha det. Hva med kompatibilitet med alle OS, og programvare som er vant med å ta tilgang til disker uten innblanding av ett OS?

Vel det er nettopp det denne løsningen gjør. Kontrolleren snakker i 4k blokker mot mediet sitt men kommuniserer med 512B blokker oppover i hierarkiet.

 

For å få full utnyttelse av ytelsen med denne endringen må en imidlertid har 4k i hele stacken fra OS til diskmedium. Kapasiteten får en imidlertid selv om mediet er eneste plass hvor 4k er implementert.

 

Hvis du har en Areca kontroller så kan du presentere LUN med 4k blokker til OS selv om disken jobber med 512B blokker. Dette er kjent for å gi bedre ytelse, men er vel stort sett bare støttet i windows. Var i alle fall det sist jeg sjekket, og det begynner vel å bli et par år siden...

Endret av Anders Jensen
Lenke til kommentar
Det tidsspørsmålet er ikke prekært. Det tar ennå mange år før SSD klarer å slå HDD på dets sterkeste punkt: kr/GB. Det skjer trolig en gang mellom 2015 og 2020 så fremt begge teknologiene klarer å fortsette den eksponentielle kapasitetstrenden. Inntil den tid vil HDD og SSD leve godt side om side til ulike formål.

Jeg tror ikke det vil bli mulig å slå HDD på pris/kapasitet med flash minne, fordi det er begrenset hvor langt ned en kan skalere flash før det blir for ustabilt. Andre typer SSD vil selvfølgelig klare det med tid og stunder.

Lenke til kommentar
Jeg henger ikke helt med her, hvorfor gir 4k blokker større kapasitet på en gitt disk?

 

AtW

Fordi vi her snakker om den fysiske implementering av blokker på diskmediet, men hver sine Sync/DAM og ECC per blokk, samt noe "slack space" mellom blokkene. Når du slår sammen 8 små blokker til en stor så kan du fjerne 7 stykk Sync/DAM, ECC felter og "slack space". En lager imidlertid et noe større ECC felt for 4k blokker slik at påliteligheten ikke skal bli redusert. Faktisk mener de vel at det blir 50% bedre beskyttelse mot burst error rates, hvilket ikke er å regne som en stor endring i denne sammenheng. Blir som å gå fra 99,999% til 99,9995% for å kunne korrigere en feil, altså en halvering av sannsynligheten for å ikke kunne korrigere med ECC når diskmediet allerede har feilet, med den gitte typen feil. Tallene er bare eksempler, jeg regner med det er snakk om enda lavere sannsynligheter i praksis, igjen forutsatt at det er akkurat denne typen feil. Det finnes jo en haug med feilsituasjoner som ikke re relatert til ECC på mediet.

Endret av Anders Jensen
Lenke til kommentar
Dette er en markedsmessig krampetrekning fra Western Digital.

Tidsspørsmål før Spinning Jenny produsenter må permanent over til SSD format.

 

Å nei du, om du tror at gameldagse platelagre vil forsvinne med det første så tar du nok veldig feil. Selv med SSDenes raske uttvikling så vil det fremdeles gå mange mange år før SSD er like bra eller bedre når det gjelder pris pr. GB...

 

Og jeg ser ingen grunn til å ikke effektivisere der det er mulig, så dette virker værken krampeaktig eller gimmicky for meg.

 

-Stigma

Lenke til kommentar

4k blokker vil jo også være en fordel for SSD, ikke med hensyn på kapasitet for der er SSD allerede organisert i 4k blokker, men med hensyn på ytelse hvis en får 4k blokker gjennom hele stacken.

 

I teorien er det ikke standardisert på 512B blokker innen lagring, men i praksis er det en annen sannhet som gjelder. Siden denne begrensningen til 512B blokker har vært de facto standard i 30år er det mange eksempler på at OS og drivere ikke takler noe annet. Dette er strengt tatt feil implementering av OS og drivere, men siden "alle" bruker 512B blokker så er det ingen som får problem med å ikke støtte noe annet. Det er også derfor WDC ikke benytter 4k blokker ut fra disken men emulerer 512B blokker ut mot SATA/SAS kontrolleren.

 

Det har lenge vært planlagt i lagringsindustrien å gå over til 4k blokker fordi dette vil redusere overhead betydelig. De kunne gått høyere også, men da vil en nok få vesentlig overhead igjen. Det handler altså om å treffe en balansegang hvor en ikke sløser bort for mye data inne i blokkene og ikke lager for mye overhead i forbindelse med administrasjon av blokkene. 4k er så langt jeg vet den nye "standarden" en sikter seg inn mot. Forhåpentligvis blir det siste gangen blokkstørrelser på lagring reorganiseres.

 

Siden WDC emulerer blir dette imidlertid en veldig myk overgang. Ulempen er at en bare får tatt ut kapasitetsgevinsten og ikke ytelsesgevinsten, men det kommer sikkert 4k hele veien opp til OS snart.

Endret av Anders Jensen
Lenke til kommentar
Jeg henger ikke helt med her, hvorfor gir 4k blokker større kapasitet på en gitt disk?

 

AtW

 

Hvis den andre forklaringen du fikk hørte helt gresk ut, så her er en enklere måte å forstå grunnleggende redundans og feilkontroll på:

 

Finn fram en kortstokk og legg eksempelvis 6 rad med 6 kort i hver, med tilfeldig fordeling mellom om kortet ligger med bildesiden opp eller ned. Dette er som 1 og 0 i et datasystem - altså noe data vi har lyst å lagre.

 

Problemet er at enkle feil i enkle bits (kort) forekommer i ny og ne, og det vil føre til datakorrupsjon. Derfor bruker vi en ekstra forsikring...

 

Legg nå en ekstra rad av 6 kort på toppen, men denne gangen ikke velg tilfeldig mellom bilde opp/ned. Legg dem slik at antall kort med bildet OPP i denne raden blir et partall. Gjør det samme nedover en av sidene. Denne ekstra raden og kolonnen kaller vi redundans. Disse kortene inneholder ikke i seg selv noe informasjon som du kan bruke, men de er veldig nyttige til å beskytte mot feil som du nå vil se...

 

Klarer du å huske hvordan alle kortene ligger opp/ned? I så fall er du ganske god ;)

 

Snu ryggen, og be en annen person snu et helt tilfeldig kort (simulere en enkel bitfeil).

 

Se på kortene igjen. Hvor er feilen? Det kan du enkelt finne ut. Sjekk alle radene og finn den som ikke har et partall med kort med bildesiden OPP. Sjekk alle kolonnene og finn den som ikke har partall der også. I den kolonnen og raden, der er feilen. Vips! Det betyr med andre ord at en datamakin som bruker sik redundans kan automatisk rette alle de meste enkle og vanlige feilene som oppstår av seg selv, og det koster oss bare litt ekstra dataplass... Uten slik redundans ville nesten alle filer garantert fått feil over tid, og det hadde bare ikke vært godt nok i mange sammenhenger. Det er dessuten mye enklere og billigere å ha en metode for å rette enkle feil som dette enn å bygge en maskin som er presis nok til aldri å kunne la slike feil oppstå.

 

Nå kan du også forstå hvorfor å øke blokkstørrelsen vil gi oss mer plass. prøv å øke kortene fra 6x6 til 12x12. Nå er det 4 ganger så mye informasjon, men merk at du IKKE behøver 4 ganger så mange redundans-kort. Disse har bare dobblet, mens datainnholdet har 4-doblet. Altså - jo større blokker, jo mindre dataplass trenger vi å kaste bort for redundanssikkerheten.

 

Dette er selvfølgleig bare det grunnleggende konseptet, men det hjelper å forstå litt av hvordan man plutselig kan "lage" mer plass på en harddisk tilsynelatende ut av ingenting.

 

og sorry ATW om jeg nå overforenklet det evt ;) men det kan gjerne være nyttig for noen andre her.

 

-Stigma

Endret av Stigma
Lenke til kommentar
Med tanke på at ALLE mine tidligere WD-disker har tatt kvelden i løpet av de første leveårene tror jeg ikke jeg gambler på å stappe ennå mer data på allerede ustabile disker...

Nå er det riktig at WD er den eneste produsenten uten en bedrift serie med disker, selv om de riktignok har vært frekk nok til å slenge enterprise merket på noen SATA disker, og de er vel ikke kjent for å ha størst fokus på stabilitet blandt produsentene. Det er likevel slik at om du opplever at alle dine WD disker dør på seg så vil det statistisk sett være en svakhet i forbindelse med en fellesnevner som er problemet. Den ene fellesnevneren er WD den andre er deg, men det kan jo være et statistisk avvik også...

Endret av Anders Jensen
Lenke til kommentar

Føler at jeg er et statistisk avvik - på lik linje med alle andre avvikene jeg føler jeg faller under :)

 

Jeg har hatt rundt 50 disker HJEMME de siste 5-6 årene - ca 20 av disse har vært WD-disker som har stått i akkurat samme maskinpark som Seagate/Samsung/Hitachi. Jeg har aldri hatt problem med noen av de ca 30 andre diskene, men alle 20 WD-disker er nå faset ut pga krash en eller flere ganger.

 

DET definerer jeg som lite tilfeldigheter - derimot et veldig tydelig tegn på at NOE må være dårligere på WD-disker fremfor de andre.

 

Selvfølgelig kan det være at WD-diskene mine ikke liker det andre oppsettet mitt, evt temperatur/luftfuktighet/drivere - men da ingen av de andre produsentene har gitt meg hodebry sier det seg selv at ihvertfall JEG holder meg unna WD i fremtiden.

Lenke til kommentar

Som sagt, WD disker er ikke optimalisert for pålitelighet i samme grad som f.eks Hitachi har for vane å gjøre, men vær oppmerksom på at forskjellige serier hos samme produsent kan ha veldig forskjellige optimaliseringer. WD er til gjengjeld ofte bedre på støy, effektforbruk, pris og/eller ytelse. Videre er SATA disker per definisjon ment å kjøre opp til 10 timer per døgn i snitt. De er ikke lagd for kontinuerlig drift. Hvis en likevel bruker diskene sine kontinuerlig så er det nok lurt å vurdere noe annet enn de billigste WD diskene. Jeg har nettopp gått til innkjøp av 2TB disker i "enterprise" serien. De har noe slumsete firmware viser det seg, men foreløpig holder de godt. Feilraten på de jeg har vært i befatning med var ganske normal første 3 mnd. 1 av 26 feilet med hardt og kontinuerlig bruk. Så får vi se hvordan de holder seg i lengden. De er vel i realiteten 7200rpm disker som er blitt skalert ned til 5400rpm disker og fått et enterprise klistremerke. Jeg tror den stabilitets optimaliseringen vil fungere greit.

Endret av Anders Jensen
Lenke til kommentar
...

WD er til gjengjeld ofte bedre på støy, effektforbruk, pris og/eller ytelse. Videre er SATA disker per definisjon ment å kjøre opp til 10 timer per døgn i snitt.

 

...

 

De er vel i realiteten 7200rpm disker som er blitt skalert ned til 5400rpm disker og fått et enterprise klistremerke. Jeg tror den stabilitets optimaliseringen vil fungere greit.

- For mitt vedkommende kan en disk koste hva den vil så lenge man slipper datatap. At den er strømgjerrig eller "rask" spiller heller ikke all verdens rolle.

 

- Hvem er det som slår av serveren sin hver 10. time for å redde disken?

 

- Å ta en 7200rpm-disk og nedskalere den til 5400rpm for å gjøre den mer stabil er omtrent som å sette en gressklippermotor i en Ferrari for å unngå alvorlige ulykker på Autobahn...

 

Ja - jeg vet jeg setter ting på spissen, men datatap er uakseptabelt - selv for en privatperson. Backup er selvfølgelig viktig, men hva i svarte er poenget med å ta backup når også den disken crasher?! :)

Lenke til kommentar

Altså for datasystemer så gjelder det generelt at de er raske, pålitelige og billige, velg to. Om dette medfører ferrari med gressklippermotor, gocart, en bobbane liknende vei per bil og ferrari til alle eller noe mer balansert, blir jo opp til den som velger systemet.

 

Når det gjelder data tap så har en slikt som RAID 6 for å håndtere disk krasj, er uhellet alt for stort må en over på backup, men generelt bør en sørge for at enkle diskkrasj aldri medfører at en må helt tilbake til backup hvis en har mange disker. Jeg ville f.eks aldri anbefalt noen å kjøre RAID 0 eller singel disk eller spanning på både data og backup hvis de forventer data ikke skal kunne gå tapt. Da må de i alle fall ha en ekstra separat kopi av backup, men det vil jo fortsatt være så upraktisk at det grenser mot idioti.

Endret av Anders Jensen
Lenke til kommentar
- For mitt vedkommende kan en disk koste hva den vil så lenge man slipper datatap.

Hvis du får datatap på grunn av disk-kræsj så har du ikke god nok redundans. (F.eks ved at man ikke skifter defekte disker før disk nr 3 ryker i et Raid6-array).

 

- Hvem er det som slår av serveren sin hver 10. time for å redde disken?

Det er vel ingen som påstår at noen gjør det. En time ekstra har ingen nevneverdig betydning.

 

- Å ta en 7200rpm-disk og nedskalere den til 5400rpm for å gjøre den mer stabil er omtrent som å sette en gressklippermotor i en Ferrari for å unngå alvorlige ulykker på Autobahn...

Den tullekommentaren får stå som et skrekk og advarsel-symbol på hvor denne tråden er på vei.

Lenke til kommentar
Føler at jeg er et statistisk avvik - på lik linje med alle andre avvikene jeg føler jeg faller under :)

 

Jeg har hatt rundt 50 disker HJEMME de siste 5-6 årene - ca 20 av disse har vært WD-disker som har stått i akkurat samme maskinpark som Seagate/Samsung/Hitachi. Jeg har aldri hatt problem med noen av de ca 30 andre diskene, men alle 20 WD-disker er nå faset ut pga krash en eller flere ganger.

 

DET definerer jeg som lite tilfeldigheter - derimot et veldig tydelig tegn på at NOE må være dårligere på WD-disker fremfor de andre.

 

Selvfølgelig kan det være at WD-diskene mine ikke liker det andre oppsettet mitt, evt temperatur/luftfuktighet/drivere - men da ingen av de andre produsentene har gitt meg hodebry sier det seg selv at ihvertfall JEG holder meg unna WD i fremtiden.

Det der er ikke statistisk grunnlag til å hevde at WD sine disker er dårligere.
Lenke til kommentar

Jeg har eid egne harddisker siden 1994. Jeg har ennå tilgode, heldigvis å oppleve at en av mine disker har krasjet.

 

Den mest upålitelige disken jeg har hatt var en ved merke Connor. Den krasjet ikke, fordi jeg leverte den i retur straks jeg så at den fikk flere feil på lagringsplaten med MS-DOS verktøyet scandisk.

Lenke til kommentar
  • 4 måneder senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...