Gå til innhold

Den frie kafeen


Anbefalte innlegg

I Windows har jeg latt meg fortelle at dersom man setter en fast (altså like stor maksimum som minimum størrelse) så tildeles hele dette området til et sted på disken, og dermed ingen fragmentering.

Er denne teorien overførbar til Linux?

 

Edit, kanskje legge til at jeg snakker om swap -sidevekslingsfil ja ;)

Endret av pcp160
Lenke til kommentar
Videoannonse
Annonse
Bare et lite spørsmål: Bruker dere forskjellige harddisker til OS og swap? Ellers ser jeg liksom ikke helt poenget med en egen partisjon for swap.

 

http://www.cyberciti.biz/faq/linux-add-a-swap-file-howto/

 

Jeg bruker egen partisjon fordi jeg da kan resize den etter behov vha. LVM. Akkurat nå er den som sagt på 6GB men jeg kan jo alltids gjøre den mindre om jeg finner ut at jeg trenger litt ekstra plass et annet sted. :)

Lenke til kommentar
Anbefaler ikke å kjøre uten swap, men man trenger ikke å overdrive :) (igjen, alt til sitt bruk)

Hva synes du om default prioriteringen swap får i Ubuntu, her benyttes den selv om det er mer ledig ram på maskinen. Omtales vel som swapines eller noe sånt. Jeg endret på dette, men skal ikke påstå jeg merket noe forskjell(utover at swap nå "aldri" blir brukt).

 

Og hva med å opprette to partisjoner på to ulike disker for swap, sette lik prioritet slik at man får "sw raid0"(altså ikke sw raid men samme effekt) som skal øke skrive/lesetiden? Jeg testet også det, uten at jeg skal påstå at jeg merket noen forskjell:-D

Endret av Dy§no
Lenke til kommentar
Hmmm, mulig jeg som blinkser nå? Er kanskje forskjell på fragmentering og defragmentering?

 

Forskjellen er vel at den ene prosessen er den motsatte av den andre, som Rabbid allerede har sagt.

 

Hvis du ser på fragmenteringen til f.eks filer lastet ned vha bittorrent, er det ofte en del fragmentering (bruk filefrag for å sjekke fragmentering til en fil). Grunnen til at ext3 ikke har defragmenteringsverktøy (? ), er vel fordi problemet ikke er like stort som på andre filsystemer, eks. FAT32.

 

Når det er sagt, skal vel ext4 komme med et defragmenteringsverktøy, uten at fragmenteringen nødvendigvis er større. Men bedre å ha muligheten, ikke sant?

Lenke til kommentar

Nå vet jeg ikke om NTFS er verre, bedre, eller det samme som FAT32 i så måte, men bruker for min del aldri FAT32 til noe annet enn minnepinner, og i NTFS er fragmentering definitivt et problem.

Jeg har også hørt at dette ikke er et problem i Linux, men med mine litt begrensede kunnskaper om dette høres det jo ut som ren magi...

 

Altså, jeg skjønner at det i prinsippet ikke vil være umulig å styre skrivingen slik at alle 1&0 havner på en pen rekke uten fragmentering. Men det jeg ikke skjønner er hvordan man kan få til dette uten at det går dramatisk utover ytelsen.

Hvis jeg feks laster ned noen torrenter, og tar opp en film, samtidig som jeg spiller av en sang og surfer på nett, må det ikke da gå bort veldig mye "reisetid" hvis lesearm skal styres slik at alt havner på rett sted med en gang, samtidig som det jeg driver med hentes?

Jeg har i grunn trodd at fragmentering kan kalles en bivirkning av man lar data skrives på det som til en hver tid er nærmeste ledige plass.

 

Har jeg misforstått dette, og/eller er det noen som føler seg kallet til å forklare med relativt enkle ord hvordan Linux gjør dette, er det noe slags buffer-system, eller altså hvorfor det er et mindre problem i Linux (hvis det nå stemmer at er det)? :)

Lenke til kommentar

Jeg tror det gjøres ved at disken ikke fylles opp fra A til B (innerst til ytterst ytterst til innerst), men at det blir laget godt med plass mellom hver oppføring, slik at det er plass til å fylle inn data der seinere. Og angående torrent, så reserverer ofte torrentprogrammet plass til hele filen når torrenten startes.

Endret av endrebjo
Lenke til kommentar
Simen1: Hva er grunnen til det da?

Jeg er ikke helt sikker, men det har vel noe med gammel vane å gjøre.

 

For begge typer media er det en fordel om data skrives fra ytterst til innerst fordi det vil gi høyest overføringshastighet på ikke fulle media. Det er også en liten fordel for søketiden.

Lenke til kommentar

Ok Endrebjo, når du nevner det så har jeg vel hørt om det med torrent før, og man har også såvidt jeg husker, feks i utorrent, diverse innstillingsmuligheter for buffring og bredde på hver del som skrives, med mer.

 

Men det var prinsippet jeg var ute etter her, så torrent var bare et vilkårlig eksempel. Så dette du sier om at det settes av plass høres ut som det kan være noe av forklaringen. Men da er jeg tilbake til å undre meg over om ikke dette er veldig lite effektivt og skaper mye "reisetid" frem og tilbake mellom de avsatte områdene. Jeg forstår rett og slett ikke helt hvordan man kan få i både pose og sekk her. :)

 

Nå forstår jeg jo av senere innlegg at også Linux er utsatt for fragmentering, men det kan jo absolutt tenkes at problemet likevel ikke er så stort som i NTFS.

Lenke til kommentar

Jeg har tenkt litt på en server.

 

- Primært NAS-server, og da hadde jeg lyst til å prøve OpenSolaris/ZFS/RaidZ. Har hørt RAM og 64-bit CPU er viktig. Hva bør jeg tenke på? Sees én pool, eller et vdev som én partisjon, dvs at jeg kan dele opp som jeg vil.

 

- Hadde vært moro å bruke denne serveren til flere ting, og da bruke virtualisering for å 'isolere' serverne. Hadde håpet på tre virtuelle servere, da, hvor én er NAS, én bruker tv-kortet i maskinen, bare til opptak, og siste har småting som irssi, torrentklient osv. Hvordan vil dette påvirke ytelsen til NASet, da det er det viktigste her?

Lenke til kommentar
Simen1: Hva er grunnen til det da?

Jeg er ikke helt sikker, men det har vel noe med gammel vane å gjøre.

 

For begge typer media er det en fordel om data skrives fra ytterst til innerst fordi det vil gi høyest overføringshastighet på ikke fulle media. Det er også en liten fordel for søketiden.

Det gjøres også en antagelse (spesielt for harddisker) om at det du innstalerer først er det viktigste (typisk operativsystemet + kritiske programmer). Det er selvfølgelig en betydelig fordel at det får ligge hvor ytelsen er best.

 

Forøvrig skal swap i min mening ikke brukes overhode før man har fylt opp rammen til rundt 95%. I de fleste tilfeller vil agressiv swapping føre til flere page faults og det kan ha en drastisk innvirkning på ytelsen. Men det ser jo seff bedre ut at et system bruker 200MB minne enn 500MB (hvor de 300MB systemet faktisk også trenger ligger i swapfilen). Det kan kanskje virke som enkelte OS spekulerer litt i dette.

 

meastp: kjøre VmWare ESXi (den som nylig ble gratis) eller lignende i bunnen da? Hvis det er snakk om hjemmebruk og relativt moderne hardware (flere enn 1 kjerne og bra med minne) så tror jeg ikke du skal bekymre deg 1 sekund på ytelse.

En ulempe man kanskje kan ha med virtualisering er jo at det selvfølgelig blir noe økt overhead, og det er muligens vanskeligere å gi prioritet til ting (eller har hypervisorene kanskje mulighet for å prioritere et OS?).

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...