Gå til innhold

Mer om agp/pci mhz


thoul

Anbefalte innlegg

Videoannonse
Annonse

Stemmer dette.

AGP/PCI lock på 66/30 er for å skåne aplikasjoner som skjermkort, lydkort og lignenge komponenter for oveklokking.

Har dui ikke et mobo med AGP/PCI-lock så vil AGP og PCI-busen følge FSB'en og du får en MHZ som vil bli for høy og kan bli skadelig for AGP og PCI enheter.

Lenke til kommentar
Nei,, det skal nok ikke være mulig å klokke opp hastigheten på en harddisk.. :ermm:

Det eneste man gjør ved å øke PCI-hastigheten er å øke hastigheten på Interfacet (ATA-kabelen). Siden dette ikke er noen ytelse-begrensende faktor så har det ingenting å si for ytelsen. Det eneste som skjer er at man ririkerer ustabilitet enten på ATA-kontrolleren på hovedkortet eller i selve harddisken. Hvis du er riktig uheldig så ødelegger du noe av denne elektronikken permanent.

 

Det samme gjelder andre PCI- og AGP-enheter: Ingen ytelseforbedring pga overklokking men risiko for ustabilitet og for å ødelegge ting.

 

Mange PCI/AGP -enheter tåler ~10-30% overklokk men hva er vitsen når det eneste som skjer er økt risiko for problemer?

Lenke til kommentar
Nei,, det skal nok ikke være mulig å klokke opp hastigheten på en harddisk..  :ermm:

Det eneste man gjør ved å øke PCI-hastigheten er å øke hastigheten på Interfacet (ATA-kabelen). Siden dette ikke er noen ytelse-begrensende faktor så har det ingenting å si for ytelsen. Det eneste som skjer er at man ririkerer ustabilitet enten på ATA-kontrolleren på hovedkortet eller i selve harddisken. Hvis du er riktig uheldig så ødelegger du noe av denne elektronikken permanent.

 

Det samme gjelder andre PCI- og AGP-enheter: Ingen ytelseforbedring pga overklokking men risiko for ustabilitet og for å ødelegge ting.

 

Mange PCI/AGP -enheter tåler ~10-30% overklokk men hva er vitsen når det eneste som skjer er økt risiko for problemer?

Tja.. Her vil jeg si meg uenig.

 

Ser vi på denne tråden har han økt PCI hastigheten:

http://www.xtremesystems.org/forums/showth...&threadid=27115

 

Her har jeg økt PCI hastigheten til 36mhz: http://home.no/stlover/Kallemaskin/2x%2018...36mhz%20pci.jpg

 

Fikk ytelsesøkning på 7% når jeg økte PCI hastigheten 10%. Dette vil ikke jeg si er en ubetydelig økning.

 

PS: http://home.no/stlover/180gxp/IBM%20laget%...ed%20VIA%20.jpg og

http://home.no/stlover/180gxp/IBM%20laget%...20med%20via.jpg

 

Er disse som står sammen i raid. De er testet individuelt med 33mhz PCI.

Lenke til kommentar
Tja.. Her vil jeg si meg uenig.

1. Dette er et ganske spesiellt tilfelle, der båndbredden til de to harddiskene er begrenset av båndbredden mellom raid-kontrolleren og southbridge via PCI. (133MByte/s)

 

2. Ytelse og transferrate er som regel to helt forskjellige ting. Transferrate er veldig veldig skjelden noen begrensende faktor i praktiske sammenhenger. (Jeg regner denne kunstige benchmarken for å være så kunstig at den ikke har noen praktisk betydning. Sjekk heller "single-user performance" eller "multi-user performance". Det gir mye riktigere bilde av hva "ytelse" er i praksis.

Lenke til kommentar

Transfer rate er ikke alt ,men jeg mener du undervurderer det litt. Et slikt HDtach resultat er imo er rimelig viktig. Greit nok at det finnes flere benchmarks som kanskje sier mer om normal bruk ,men transfer hastighet er en ting som jeg prioriterer ganske høyt siden jeg har Gbit lan hjemme. Og den ene maskinen har en meget liten så kjører jeg mye over nettverket.

 

Og hva er så spessielt ved og kjøre Raid?

Endret av CFD
Lenke til kommentar
Og hva er så spessielt ved og kjøre Raid?

Ok, da. Jeg undervurderer kanskje litt, men hovedpoenget er at det er de færreste som har transfer som et mål for ytelse. De aller fleste vil nok være mye mer opptatt av f.eks oppstart-tid, rask respons i windows, raske programmer og spill. Dette er ting som transferrate har nesten null invirkning på.

 

Greit nok at du kanskje har et litt spesiellt behov, og at overklokking av PCI-bussen kan yte bedre til dette, men jeg tror nok de aller færreste vil legge merke til ytelseøkningen på noe vis.

 

PS. Kravet for å merke ytelseforbedringen er:

* Store behov for å overføre data. (mange GB veldig ofte)

* Raid0 på både mottaker-maskin og sender

* 2 eller flere svært (read-transfer) raske harddisker

 

Personlig tror jeg det er veldig få som har et slikt behov og dermed vil merke ytelseforbedringen. Altså drister jeg meg til å fortsatt si at det generellt sett ikke er noen praktisk nytte av å overklokke PCI.

 

Edit: Det spesielle med å kjøre raid0 er at da får harddiskene en samlet transferrate på over båndbredden for PCI og at båndbredden til begge harddsikene utnyttes samtidig.

 

Båndbredden (read-transfer) for selve harddisken (1 stk) er normalt opp mot 50-70 MByte/s på begynnelsen av disken. Raid0 med to disker gir 2x70 Mbyte/s (=140 Mbyte/s) PCI-bussen er 133 MByte/s. (32bit * 33MHz). Når du samtidig skal overføre dataene fra disken til ram/CPU og derfra tilbake til PCI-bussen og GB-lan brikken så vil altså trafikken strupes til 140 MByte/s /2 (pga 2 veier, frem og tilbake). Det er PCI-bussen som står for strupinga til totalt 133 MByte/s, altså 66 MByte/s fra disk til GBlan. 66 MByte/s = 533 Mbit/s. Dette er altså det du i teorien skal kunne oppnå over nettverket ditt. Selvfølgelig er det en del "overhead" både på hardiskene selv, PCI-bussen og andre plasser i systemet. Dette reduserer i praksis ytelsen for filtransfer til rundt 3-400 Mbit/s. (40-50 MByte/s)

 

Edit: Endret FSB til PCI ..

Endret av Simen1
Lenke til kommentar
De aller fleste vil nok være mye mer opptatt av f.eks oppstart-tid, rask respons i windows, raske programmer og spill. Dette er ting som transferrate har nesten null invirkning på.

 

PS. Kravet for å merke ytelseforbedringen er:

* Store behov for å overføre data. (mange GB veldig ofte)

* Raid0 på både mottaker-maskin og sender

* 2 eller flere svært (read-transfer) raske harddisker

 

Personlig tror jeg det er veldig få som har et slikt behov og dermed vil merke ytelseforbedringen. Altså drister jeg meg til å fortsatt si at det generellt sett ikke er noen praktisk nytte av å overklokke FSB.

 

Edit: Det spesielle med å kjøre raid0 er at da får harddiskene en samlet transferrate på over båndbredden for PCI og at båndbredden til begge harddsikene utnyttes samtidig.

 

Båndbredden (read-transfer) for selve harddisken (1 stk) er normalt opp mot 50-70 MByte/s på begynnelsen av disken. Raid0 med to disker gir 2x70 Mbyte/s (=140 Mbyte/s) PCI-bussen er 133 MByte/s. (32bit * 33MHz). Når du samtidig skal overføre dataene fra disken til ram/CPU og derfra tilbake til PCI-bussen og GB-lan brikken så vil altså trafikken strupes til 140 MByte/s /2 (pga 2 veier, frem og tilbake). Det er PCI-bussen som står for strupinga til totalt 133 MByte/s, altså 66 MByte/s fra disk til GBlan. 66 MByte/s = 533 Mbit/s. Dette er altså det du i teorien skal kunne oppnå over nettverket ditt. Selvfølgelig er det en del "overhead" både på hardiskene selv, PCI-bussen og andre plasser i systemet. Dette reduserer i praksis ytelsen for filtransfer til rundt 3-400 Mbit/s. (40-50 MByte/s)

Jeg har vell kanskje et litt spessielt behov ,men jeg bruker jo ikke disse diskene til OS. Da synes jeg det blir for høy access tid så jeg har jo arrays som jeg bare har ting på. Du har helt rett i at man sjelden kommer over 50MB/s i et nettverk ,men da er vi tross alt nesten oppe i en lokal disk (med mye høyere acess tid ,men dette er mye bedre enn noen gamle og slitte 5-20gig disker som er "utslitt")

 

 

Og maskinene mine koser seg med Raid0 ja. Kjører også 4disker i raid0 ,men disse er mest satt opp til Write speed og har dermed ganske lav read speed. (lave stripesize = høy read\lav write) så man finner fint et kompromiss (40mbs read\40mbs write.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...