pcp160 Skrevet 11. februar 2007 Del Skrevet 11. februar 2007 Hei. Bare lurer på om det er slik at når man oppretter partisjoner på en ny disk (typisk i starten av Windows install), kommer da disse partisjonene fysisk plassert på disken i den rekkefølgen de lages, med start ytterst? Lurer med tanke på å få OS og swap lengst mulig ut på hd- platen, der det leses raskest Lenke til kommentar
Hårek Skrevet 11. februar 2007 Del Skrevet 11. februar 2007 Ja, første partisjon starter ytterst på disken. Lenke til kommentar
Simen1 Skrevet 11. februar 2007 Del Skrevet 11. februar 2007 Lurer med tanke på å få OS og swap lengst mulig ut på hd- platen, der det leses raskest 7918458[/snapback] En god nyhet: Både transfer og aksesstid blir bedre av å ha OS ytterst (på starten) av disken: - Transfer fordi det ligger omtrent dobbelt så mye data per runde langs ytterste spor som ved innerste spor. Siden rotasjonen skjer like raskt uansett hvor på disken det leses fra så får man altså lest dobbelt så mye på samme tid ytterst som innerst. - Aksesstid fordi en partisjon på f.eks 20GB ytterst vil ta omtrent halvparten så mye plass (målt radiellt) som en partisjon på 20GB innerst. Når lesearmen skal flytte seg innad på samme partisjon så får den et mindre arbeidsområde. F.eks maks 5 mm av den ytterste delen av disken i stedet for 10mm av den innerste. Tiden søket tar er avhengig av avstanden lesearmen må flytte seg. Fra et spor til nabosporet kan ta 0,1ms , mens et søk fra inners til ytterst på disken kan ta over 20ms. Gjennomsnittlig aksesstid på disken når den er bare en partisjon er normalt rundt 13 ms. Lenke til kommentar
pcp160 Skrevet 11. februar 2007 Forfatter Del Skrevet 11. februar 2007 Takk til dere begge, da fikk jeg bekreftet det var også litt usikker på dette med akesstid, men da blir også den bedre lengst ut ja. Siden vi er så godt i gang med forklaringen, kan noen forklare meg hvorfor de nye store diskene (såvidt jeg har lest) ikke egentlig er særlig raskere enn de mindre. Jeg har tenkt og trodd at større disker kunne være raskere pga høyere tetthet, men med alle mulige forbehold om at jeg har lest for få tester ser det ikke slik ut. Mine gamle 74GB Raptorer ser ut til å holde brukbart stand fremdeles. Akkurat de er jo kanskje et dårlig eksempel siden de snurrer @10K, men syns de sammelikninger jeg har sett mellom "samme disk" på feks 250GB vs 400GB ikke viser noe nevneverdig forskjell. Hvorfor? Tar jeg feil? Lenke til kommentar
Simen1 Skrevet 11. februar 2007 Del Skrevet 11. februar 2007 Det er ofte ulikt antall plater så tettheten kan i mange tilfeller være den samme selv om kapasiteten er forskjellig. Det vanlige nå er fra 133 til 166 GB per plate. Det finnes selvsagt eldre modeller med mindre enn 133 GB/plate og den kommende 1TB-disken fra hitachi som har hele 200 GB/plate. Men la oss ta utgangspunkt i to disker. En med 133 GB/plate og 3 plater for totalt 400GB, og en med 160 GB/plate og to plater for totalt 320GB. Den minste av disse har altså høyest tetthet og vil i teorien yte best. 160/133 = ca 1,2. Arealtettheten er altså 20% større. Men det er ikke arealtettheten som gir høyere transferrate, det er kun tettheten i den ene retninga, langs sporene, som gir høyere transfer. Arealtettheten er et produkt av tetthet langs sporene og hvor tett sporene er plassert. Ta roten av tallet 1,2 så får man omtrent 1,1. Det vil si at man kan forvente en økt transfer-rate på 10% ved å gå fra 133 GB/plate til 160 GB/plate. F.eks fra 60 til 66 MB/s (maks). 320GB-disken kan altså forventes å ha ha ca 10% raskere maksimal transfer rate enn det 400GB-disken har. Drar vi inn en disk med 500GB fordelt på 3 plater a 166GB så kan denne forventes å ha bare 2% raskere transferrate enn 320GB-disken, og ca 12% raskere enn 400GB-disken. Hitachis kommende 1TB-disk skal vistnok klare opp mot 82 MB/s. Lenke til kommentar
pcp160 Skrevet 11. februar 2007 Forfatter Del Skrevet 11. februar 2007 Ok, takk for den oppklaringen Simen. Så plateantall/størrelse er selvsagt forklaringen ja. Har aldri vært inne i noen av disse nyere diskene, med flere plater. Med de har jo nødvendigvis også flere lesehoder. Men sitter disse hodene da på hver sin individuelt bevegelige arm? Jeg vet jo at den nyere RaptorX har 2 plater mot en som mine har. I HW.no's test både leser og skriver den nye raskere, men den gamle 74GB versjonen har ørlite kortere søketid. Men det kan jo for alt hva jeg vet være annet enn plateantall som er anderledes i den nyeste raptor'n. Kunne man ikke egentlig hatt flere helt separate armer for hver plate, og dermed lest dobbelt så mye data pr runde...? Jeg har jo altså fått svar på mitt opprinnelige spørsmål, men bare benytter anledningen til og utvide kunnskapen litt når jeg først har flinke folk på tråden. Så det er høyst frivillig og svare om noen føler seg kallet Lenke til kommentar
Hårek Skrevet 11. februar 2007 Del Skrevet 11. februar 2007 Kunne man ikke egentlig hatt flere helt separate armer for hver plate, og dermed lest dobbelt så mye data pr runde...? 7920267[/snapback] Det er to armer for hver plate, slik et det er et lesehode på hver side av plata. Men alle hodene er koblet sammen og drives av en 'motor'. Det er ikke plass til separat motor for hver arm slik at de kan bevege seg uavhengig. http://storagereview.com/guide2000/ref/hdd/op/index.html Lenke til kommentar
Simen1 Skrevet 11. februar 2007 Del Skrevet 11. februar 2007 Spennede spørsmål pcp160 Jeg digger å fundere på hvordan konstruksjonen kunne vært gjort på en annen måte. Hårek har allerede svart på det mest vesentlige, men jeg vil skravle litt mer om det. Seagate prøvde midt på 90-tallet en svært spesiell løsning på en liten serie SCSI-disker. De monterte to lesearmer på ett sett med diskplater. Hver av lesearmene var koblet (via noen brikker og litt elektronikk på harddisken) til hver sin SCSI-kabel. Den ene hadde både lese og skrivetilgang, mens den andre hadde kun lesetilgang. Hensikten var å markedsføre disker som var plent umulige å hacke fra internett på grunn av kun leserettigheter på den ene kabelen, men likevel skriverettigheter fra en server. Systemet skulle altså fungere som et idiotsikkert system for adskillelse av interne nettverk og eksterne som kun skulle ha lesetilgang. Serien var dyr å produsere, hadde trolig høy feilrate og solgte dårlig. Det idiotsikre produktet ble en flopp og faset ut. ___________ Det kunne vært en annen fordel med 2 lesearmer: Hver arm kunne lest individuelt på forskjellige plasser på platene. Det vil si mye raskere aksesser. (mindre rotasjons-forsinkelse og kortere gjennomsnittlige avstander armen må bevege seg) Dersom begge armene leste fra samme spor eller etterfølgende spor kunne transferrate blitt doblet. Men feilrate og produksjonskostnaden ville selvsagt blitt mye høyere. ___________ Man kunne tenkt seg at alle lesehodene leser samtidig selv om de følger hverandre. Da ville man oppnådd høyere transfer-ytelse enn slike det fungerer i dag. I dag leses eller skrives det kun fra ett lesehode av gangen. Selv om det er f.eks 5 plater og 10 lesehoder i harddisken. Grunnen til at det leses og skrives fra kun ett lesehode er at det er alt for vanskelig å få sporene på disken til å stemme over ens samtidig. Det kan være termisk utvidelse eller andre ting som gjør at sporene ikke ligger helt på samme plass. Dermed må lesearmen føle seg frem til hvor sporet på hver enkelt plate ligger, og da stemmer det ikke med plasseringen av sporene på andre plater. _____________ Raptor 74GB (første versjon) har 2 plater Raptor 150GB (første og hittil eneste versjon) har to plater Raptor 74GB (andre versjon) har 1 plate med samme tetthet som 150GB-versjonen. Denne skal yte likt med 150GB-versjonen. Lenke til kommentar
pcp160 Skrevet 12. februar 2007 Forfatter Del Skrevet 12. februar 2007 Simen1Det kunne vært en annen fordel med 2 lesearmer: Hver arm kunne lest individuelt på forskjellige plasser på platene. Det vil si mye raskere aksesser. (mindre rotasjons-forsinkelse og kortere gjennomsnittlige avstander armen må bevege seg) Dersom begge armene leste fra samme spor eller etterfølgende spor kunne transferrate blitt doblet. Men feilrate og produksjonskostnaden ville selvsagt blitt mye høyere. Ja, det var mest dette jeg hadde i tankene, at man kunne lest fra 2 eller flere steder samtidig. Harddisker er av de "selvfølgeligheter" vi omgir oss med jeg syns er ganske fasinerende. Helt utrolig at de faktisk fungerer så bra som de gjør. Jeg tror nok også at hvis mine venner (og spesielt de kvinnelige må jeg vel si...) hadde vist litt mer om virkemåten, hadde de nok tenkt seg om en gang til før de slamret laptop'en fra seg som en mobiltelefon Det ble en del timers lesning fra linken til Hårek, så takk for den. Veldig bra forklart, og har da også fått med meg det du nevner med Seagate's forsøk på 90 tallet Simen. Ytelsen var vist også meget bra. Linken tok grundig for seg harddisker fra de første, og frem til 2001 eller noe sånt. Så eventuell utvikling etter dette lærte jeg vel ikke noe om. Uansett, forfatteren mente vel som Simen også var inne på at hovedårsaken til at det ikke ble noe videre av flerhode/flerarm teknologi er økonomi. At man er helt avhengig av masseproduksjon, og den store massen er jo ikke spesielt opptatt av harddiskytelse, eller rettere sagt i å betale masse ekstra for det. Egentlig er det litt rart syns jeg, for jeg opplever harddisker som noe av den mest merkbare flaskehalser i dagens maskiner. Byttet feks nettopp 4200rpm disk med en 7200rpm i laptop'en min, og det er jo svært merkbart til "vanlig kontorbruk" syns jeg. Men hva tror du Simen, eller andre, er dette muligens noe som likevel vil komme etterhvert? Jeg mener både plass som Hårek nevner, og produksjonskostnader er jo noe jeg vil tro er overkommelig problemstillinger, etterhvert som produksjonsmetodene forbedres? Og ikke minst, det jeg leste stoppet altså på begynnelsen av 2000 tallet, men det må da begynne å bli vanskelig å pakke data tettere på disse platene etterhvert, og samtidig klare å skille alle 1 og 0 uten feil. Takk forresten for opplysningen ang Raptor, jeg viste ikke at 74GB hadde hatt to plater i første versjon. Har selv den siste typen 74GB, og ble som nevnt positivt overasket over å se at noe jeg kjøpte dyrt for over et år siden for en gangs skyld fortsatt er bra, he he Lenke til kommentar
Hårek Skrevet 12. februar 2007 Del Skrevet 12. februar 2007 Det var en kjent skribent som for noen år siden var skråsikker på at diskene snart kom til å bli erstattet av halvlederminne (som FLASH). Men utviklingen på kapasitet og pris de siste årene har jo vært helt utrolig, og det ser faktisk ut som det skal fortsette enda en stund. Jeg tror fabrikantene har hatt nok å gjøre med å holde følge i dette rotteracet, det er svært små marginer på å produsere disker nå. Det er volum som gjelder, og de tar ikke sjangsen på å utvikle høyhastighetsdisker som ville hatt høy pris og beskjedent volum. Lenke til kommentar
pcp160 Skrevet 12. februar 2007 Forfatter Del Skrevet 12. februar 2007 Ja, er det blir spennende å se hva som kommer. Leste noe om hva de vel kaller "Ramdrive" for ikke så alt for lenge siden, som vel var tenkt som ren systemdisk i de størrelser det foreløpig var snakk om. Dog ikke akkurat billig og den gode gamle harddisken blir vel med en god stund til. Det har jo som du nevner vært en helt vanvittig utvikling, og vel i kapasitet bare raskere og raskere utvikling også. Men det til tross for at de ser helt like ut utenpå som på min første 286 med 20MB disk. Jeg er gammel nok til at jeg husker Commodore64 og VIC20 hvor vi satt og loadet lenge og vel med kasettbånd for å spille packman. Det er litt i lys av dette jeg tenker at feks plassproblemer til flere lesearmer kanskje virker vanskelig nå, men ikke nødvendigvis om noen år... Men du har uansett helt sikkert rett i at energien hos produsentene legges i å følge på i det kappløpet som foregår, og da først og fremst på pris og kapasitet. Lenke til kommentar
Simen1 Skrevet 13. februar 2007 Del Skrevet 13. februar 2007 Men hva tror du Simen, eller andre, er dette muligens noe som likevel vil komme etterhvert?7929049[/snapback] Nei, jeg tror ikke to lesearmer kommer. Poenget med to lesearmer er å få raskere aksess til filer og det problemet vil reduseres på en annen måte: flash. Flash er så mye raskere enn harddisker at selv 100 lesearmer ville ikke hatt sjanse til å få samme aksesstid. Men flash har veldig langt igjen til det når den pris/kapasitet som harddisker leverer. Den løsningen som tvinger seg frem er etter min mening en smart hybrid mellom harddisk og flash der små filer ledes inn på flashbrikken mens store filer ledes inn på harddisken. Så lenge OSet ser disse to som en partisjon, eller at OSet selv dirigerer trafikken slik at applikasjonene ser det som en partisjon, så tror jeg man får den beste kombinasjonen av begge. Man trenger ikke så mye flash så lenge det bare er små filer og andre filer som trenger mange små aksesser inni filene som ligger på flash. Smartere filsystemer kombinert med NCQ kan også hjelpe veldig på aksesstiden uten at det øker produksjonskostnader, feilraten eller plassen. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå