thoul Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Låst betyr visst agp 66 og pci 33 , men er dette et mål i seg selv??? Skal ikke agp følge fsb? og pci 100 mhz eller no sånt? Håper jeg snart får ryddet opp i dette oppi hodet mitt.... Lenke til kommentar
Vapula Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Slik jeg har forstått det, så er det vel rett å låse på 66/33. Hvis ikke kan du skade kortene, pci skal vel ikke over 40 mhz uansett. Rett på meg hvis jeg er helt ute på jordet! Lenke til kommentar
thoul Skrevet 8. februar 2004 Forfatter Del Skrevet 8. februar 2004 tusen takk ...mitt gamle system som kjører på 83 mhz ekst, gir 1/2 divider pci og agp 1/1 burde kanskje tweaket ned da.... (eldgammelt system skal kjøpe nytt 64 system nå) Lenke til kommentar
b-real Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Stemmer dette. AGP/PCI lock på 66/30 er for å skåne aplikasjoner som skjermkort, lydkort og lignenge komponenter for oveklokking. Har dui ikke et mobo med AGP/PCI-lock så vil AGP og PCI-busen følge FSB'en og du får en MHZ som vil bli for høy og kan bli skadelig for AGP og PCI enheter. Lenke til kommentar
Mr. Mustard Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 ... og viktigst av alt: Harddiskene!!! Lenke til kommentar
Poppe Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Men er det noen som vet om harddiskene blir raskere med høyere busshastighet? Lenke til kommentar
Poppe Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Men er det noen som vet om harddiskene blir raskere med høyere busshastighet? Lenke til kommentar
notarget Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Nei,, det skal nok ikke være mulig å klokke opp hastigheten på en harddisk.. Lenke til kommentar
Simen1 Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Nei,, det skal nok ikke være mulig å klokke opp hastigheten på en harddisk.. Det eneste man gjør ved å øke PCI-hastigheten er å øke hastigheten på Interfacet (ATA-kabelen). Siden dette ikke er noen ytelse-begrensende faktor så har det ingenting å si for ytelsen. Det eneste som skjer er at man ririkerer ustabilitet enten på ATA-kontrolleren på hovedkortet eller i selve harddisken. Hvis du er riktig uheldig så ødelegger du noe av denne elektronikken permanent. Det samme gjelder andre PCI- og AGP-enheter: Ingen ytelseforbedring pga overklokking men risiko for ustabilitet og for å ødelegge ting. Mange PCI/AGP -enheter tåler ~10-30% overklokk men hva er vitsen når det eneste som skjer er økt risiko for problemer? Lenke til kommentar
CFD Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Nei,, det skal nok ikke være mulig å klokke opp hastigheten på en harddisk.. Det eneste man gjør ved å øke PCI-hastigheten er å øke hastigheten på Interfacet (ATA-kabelen). Siden dette ikke er noen ytelse-begrensende faktor så har det ingenting å si for ytelsen. Det eneste som skjer er at man ririkerer ustabilitet enten på ATA-kontrolleren på hovedkortet eller i selve harddisken. Hvis du er riktig uheldig så ødelegger du noe av denne elektronikken permanent. Det samme gjelder andre PCI- og AGP-enheter: Ingen ytelseforbedring pga overklokking men risiko for ustabilitet og for å ødelegge ting. Mange PCI/AGP -enheter tåler ~10-30% overklokk men hva er vitsen når det eneste som skjer er økt risiko for problemer? Tja.. Her vil jeg si meg uenig. Ser vi på denne tråden har han økt PCI hastigheten: http://www.xtremesystems.org/forums/showth...&threadid=27115 Her har jeg økt PCI hastigheten til 36mhz: http://home.no/stlover/Kallemaskin/2x%2018...36mhz%20pci.jpg Fikk ytelsesøkning på 7% når jeg økte PCI hastigheten 10%. Dette vil ikke jeg si er en ubetydelig økning. PS: http://home.no/stlover/180gxp/IBM%20laget%...ed%20VIA%20.jpg og http://home.no/stlover/180gxp/IBM%20laget%...20med%20via.jpg Er disse som står sammen i raid. De er testet individuelt med 33mhz PCI. Lenke til kommentar
Simen1 Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Tja.. Her vil jeg si meg uenig. 1. Dette er et ganske spesiellt tilfelle, der båndbredden til de to harddiskene er begrenset av båndbredden mellom raid-kontrolleren og southbridge via PCI. (133MByte/s) 2. Ytelse og transferrate er som regel to helt forskjellige ting. Transferrate er veldig veldig skjelden noen begrensende faktor i praktiske sammenhenger. (Jeg regner denne kunstige benchmarken for å være så kunstig at den ikke har noen praktisk betydning. Sjekk heller "single-user performance" eller "multi-user performance". Det gir mye riktigere bilde av hva "ytelse" er i praksis. Lenke til kommentar
CFD Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 (endret) Transfer rate er ikke alt ,men jeg mener du undervurderer det litt. Et slikt HDtach resultat er imo er rimelig viktig. Greit nok at det finnes flere benchmarks som kanskje sier mer om normal bruk ,men transfer hastighet er en ting som jeg prioriterer ganske høyt siden jeg har Gbit lan hjemme. Og den ene maskinen har en meget liten så kjører jeg mye over nettverket. Og hva er så spessielt ved og kjøre Raid? Endret 8. februar 2004 av CFD Lenke til kommentar
Simen1 Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 (endret) Og hva er så spessielt ved og kjøre Raid? Ok, da. Jeg undervurderer kanskje litt, men hovedpoenget er at det er de færreste som har transfer som et mål for ytelse. De aller fleste vil nok være mye mer opptatt av f.eks oppstart-tid, rask respons i windows, raske programmer og spill. Dette er ting som transferrate har nesten null invirkning på. Greit nok at du kanskje har et litt spesiellt behov, og at overklokking av PCI-bussen kan yte bedre til dette, men jeg tror nok de aller færreste vil legge merke til ytelseøkningen på noe vis. PS. Kravet for å merke ytelseforbedringen er: * Store behov for å overføre data. (mange GB veldig ofte) * Raid0 på både mottaker-maskin og sender * 2 eller flere svært (read-transfer) raske harddisker Personlig tror jeg det er veldig få som har et slikt behov og dermed vil merke ytelseforbedringen. Altså drister jeg meg til å fortsatt si at det generellt sett ikke er noen praktisk nytte av å overklokke PCI. Edit: Det spesielle med å kjøre raid0 er at da får harddiskene en samlet transferrate på over båndbredden for PCI og at båndbredden til begge harddsikene utnyttes samtidig. Båndbredden (read-transfer) for selve harddisken (1 stk) er normalt opp mot 50-70 MByte/s på begynnelsen av disken. Raid0 med to disker gir 2x70 Mbyte/s (=140 Mbyte/s) PCI-bussen er 133 MByte/s. (32bit * 33MHz). Når du samtidig skal overføre dataene fra disken til ram/CPU og derfra tilbake til PCI-bussen og GB-lan brikken så vil altså trafikken strupes til 140 MByte/s /2 (pga 2 veier, frem og tilbake). Det er PCI-bussen som står for strupinga til totalt 133 MByte/s, altså 66 MByte/s fra disk til GBlan. 66 MByte/s = 533 Mbit/s. Dette er altså det du i teorien skal kunne oppnå over nettverket ditt. Selvfølgelig er det en del "overhead" både på hardiskene selv, PCI-bussen og andre plasser i systemet. Dette reduserer i praksis ytelsen for filtransfer til rundt 3-400 Mbit/s. (40-50 MByte/s) Edit: Endret FSB til PCI .. Endret 8. februar 2004 av Simen1 Lenke til kommentar
Endre Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 Altså drister jeg meg til å fortsatt si at det generellt sett ikke er noen praktisk nytte av å overklokke FSB. Håper du mener PCI... Lenke til kommentar
Simen1 Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 EnD.R.E.: Selvfølgelig! Jeg har rettet opp feilen nå. Lenke til kommentar
CFD Skrevet 8. februar 2004 Del Skrevet 8. februar 2004 De aller fleste vil nok være mye mer opptatt av f.eks oppstart-tid, rask respons i windows, raske programmer og spill. Dette er ting som transferrate har nesten null invirkning på. PS. Kravet for å merke ytelseforbedringen er: * Store behov for å overføre data. (mange GB veldig ofte) * Raid0 på både mottaker-maskin og sender * 2 eller flere svært (read-transfer) raske harddisker Personlig tror jeg det er veldig få som har et slikt behov og dermed vil merke ytelseforbedringen. Altså drister jeg meg til å fortsatt si at det generellt sett ikke er noen praktisk nytte av å overklokke FSB. Edit: Det spesielle med å kjøre raid0 er at da får harddiskene en samlet transferrate på over båndbredden for PCI og at båndbredden til begge harddsikene utnyttes samtidig. Båndbredden (read-transfer) for selve harddisken (1 stk) er normalt opp mot 50-70 MByte/s på begynnelsen av disken. Raid0 med to disker gir 2x70 Mbyte/s (=140 Mbyte/s) PCI-bussen er 133 MByte/s. (32bit * 33MHz). Når du samtidig skal overføre dataene fra disken til ram/CPU og derfra tilbake til PCI-bussen og GB-lan brikken så vil altså trafikken strupes til 140 MByte/s /2 (pga 2 veier, frem og tilbake). Det er PCI-bussen som står for strupinga til totalt 133 MByte/s, altså 66 MByte/s fra disk til GBlan. 66 MByte/s = 533 Mbit/s. Dette er altså det du i teorien skal kunne oppnå over nettverket ditt. Selvfølgelig er det en del "overhead" både på hardiskene selv, PCI-bussen og andre plasser i systemet. Dette reduserer i praksis ytelsen for filtransfer til rundt 3-400 Mbit/s. (40-50 MByte/s) Jeg har vell kanskje et litt spessielt behov ,men jeg bruker jo ikke disse diskene til OS. Da synes jeg det blir for høy access tid så jeg har jo arrays som jeg bare har ting på. Du har helt rett i at man sjelden kommer over 50MB/s i et nettverk ,men da er vi tross alt nesten oppe i en lokal disk (med mye høyere acess tid ,men dette er mye bedre enn noen gamle og slitte 5-20gig disker som er "utslitt") Og maskinene mine koser seg med Raid0 ja. Kjører også 4disker i raid0 ,men disse er mest satt opp til Write speed og har dermed ganske lav read speed. (lave stripesize = høy read\lav write) så man finner fint et kompromiss (40mbs read\40mbs write. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå