Ourasi Skrevet 7. februar 2010 Forfatter Del Skrevet 7. februar 2010 Det er ikke noe stort om og men denne bootup testen, jeg tror den maxet ut på QD#1, og da har den jo null relevans, skjekk Perfmon mens du kjører den så får vi svaret.. Har testet litt boot QD, og den er mye mye høyere... Lenke til kommentar
Anv Skrevet 7. februar 2010 Del Skrevet 7. februar 2010 Hvis denne er identisk med den som er kjørt med LE er det et høyt tall. Det er såpass høyt at jeg tviler på det er den samme filen. Jeg fikk rundt 4000 på en G2. Skal sjekke QD, ser at den står til 64 i cfg men det sier lite. Lenke til kommentar
Anv Skrevet 7. februar 2010 Del Skrevet 7. februar 2010 Hvis dette bootup scriptet ble kjørt på 1 stk LE måtte den overgå SATA interface. Man måtte ha minst 280MB/s for å få ca 7000 IOPs. Jeg sjekket med 2R0 G1 og der fikk jeg 6776,98 som er 275,84 MB/s Lenke til kommentar
Ourasi Skrevet 7. februar 2010 Forfatter Del Skrevet 7. februar 2010 (endret) Det er vel bare en Bootup fil, men som nevnt før, relevansen i denne er rimelig tvilsom... Ser du i Access Spesification, er det massevis av skriv, og massevis sekvensiellt.... I det hele tatt en OCZ fantasitest på egne SSD'er... Den ligger her på OCZ forumet: http://www.ocztechnologyforum.com/forum/sh...-also-post-here Du kan jo skjekke om den er forandret, men jeg tror det er den samme, og mengden skriv gjør at X25-E scorer 10k med 2 i raid0, altså da omtrent samme med singel X25-E som LE i singel om man trekker fra normal skalering... Endret 7. februar 2010 av Ourasi Lenke til kommentar
Anv Skrevet 7. februar 2010 Del Skrevet 7. februar 2010 Det er helt umulig med akkurat dette scriptet etter min mening, har testet på forskjellige QD's og originalen sier 64, noe den faktisk holder. Vertex skalerer ikke over QD4 så det hele er mystisk. Jeg så at SF-1200 skulle yte 9500 IOPs og SF-1500 ca det dobbelte ved skriving (4KB). I forhold til Indilinx er dette uansett en meget bra prestasjon når man vet at en Vertex skriver ca 2500 IOPs ved 4KB. Lenke til kommentar
GullLars Skrevet 7. februar 2010 Del Skrevet 7. februar 2010 Her kommer masse grafer og diagrammer rundt x25-V på 9260 og ICH10R. Disse er rettet med nyeste re-runs fra Anvil. 10 oppsett med 1-4 x25-V: 4R0 x25-V sammenlignet LSI 9260 WriteBack, 9260 WriteThrough, og ICH10R. y=MB/s, x=Block size, z=QD. Jeg begrenset block til 4-64KB og QD til 1-32 (for å holde det relevant og oversiktlig). ICH10R gjør en bra jobb til og med 16KB random read, etter det tar 9260 over. Lenke til kommentar
Ourasi Skrevet 7. februar 2010 Forfatter Del Skrevet 7. februar 2010 (endret) @Anvil: Den tester så mye sekvensiell skriv og sekvensiell generellt, at SSD'er som X25-M ikke når opp, og er derfor nokså uintressant som vi diskuterte i SSD-Tråden for lenge lenge siden, men siden det var det eneste som ble testet av LE, så ville jeg i allefall sammenligne tallene... Selv om E er bedre å bruke i denne sammenligningen, så blir det altfor mye sekvensiellt for å bli relevant.... Her er linken til Tony's LE test: http://www.ocztechnologyforum.com/forum/sh...ll=1#post485240 Endret 7. februar 2010 av Ourasi Lenke til kommentar
Anv Skrevet 7. februar 2010 Del Skrevet 7. februar 2010 (endret) Glimrende GullLars, Pussig å se hvor overlegen ICH er på små blokker, ved 8KB jevner det seg ut tydeligvis. ICH er veien å gå for de aller fleste Jeg må studere litt nærmere men det er påfallende hvor likt det yter, ved første øyekast. (tenker da spesielt på søylediagrammet) Ourasi, Jeg har ikke sjekket hvor mye sekvensielt det ligger i scriptet eller hvor mye skriving det er for den saks skyld men det er da svært lite skriving som foregår i en reell boot. edit: Det er en på forumet her som har testet denne, han har vært her før, husker ikke nicket. 6123 er en mer realistisk verdi men selv dette er knallbra fra en single SSD. Jeg ser ikke nytten i den testen men det er da min mening. Jeg booter på 10sekunder ikke 180 sekunder. (navnet på testen er misvisende om ikke annet) Endret 7. februar 2010 av Anvil Lenke til kommentar
Ourasi Skrevet 7. februar 2010 Forfatter Del Skrevet 7. februar 2010 (endret) Det er en på forumet her som har testet denne, han har vært her før, husker ikke nicket.6123 er en mer realistisk verdi men selv dette er knallbra fra en single SSD. Jeg ser ikke nytten i den testen men det er da min mening. Jeg booter på 10sekunder ikke 180 sekunder. (navnet på testen er misvisende om ikke annet) Jeg har vel ikke oppgitt et høyere tall? Denne testen kjører: 47% Sekvensiell Skriv, 8% Random Skriv, 13% sekvensiell Les, 32% Random Les, dermed så forstår man hvorfor tallene blir som de blir, og vi kan døpe denne om til noe helt annet enn Bootup config.. Og da helst til et navn som er så langt fra bootup som mulig... Og helt enig, bootup test kjører man ikke i 180 sekunder Endret 7. februar 2010 av Ourasi Lenke til kommentar
Anv Skrevet 7. februar 2010 Del Skrevet 7. februar 2010 (endret) GullLars, Det hadde på en måte vært interessant å se de siste diagrammene begrenset til f.eks. QD32 som du har gjort på søylediagrammet. Det er utrolig likt ved QD1 og det er først ved større blokker at man ser forskjell ved QD2. edit: Ourasi, Jeg leste 69xx, men leste tydeligvis feil Endret 7. februar 2010 av Anvil Lenke til kommentar
Ourasi Skrevet 7. februar 2010 Forfatter Del Skrevet 7. februar 2010 (endret) Ok, skjønte du hadde blingset litt på tallet Uansett, 55% skriv totalt, 47% er sekvensiellt skriv, som git totalt 60% sekvensiellt, dette er ikke mindre enn en skandale når de kaller denne en Bootup config.. En SSD med høy sekvensiell ytelse vil jo score veldig bra på denne, selv om random var ganske laber.. Vi glemmer denna for godt vi, som var vel slutningen for et år siden også Endret 7. februar 2010 av Ourasi Lenke til kommentar
Anv Skrevet 8. februar 2010 Del Skrevet 8. februar 2010 Stemmer nok godt det du sier. Bootup er nok nærmere 95% lesing om ikke mer. SandForce blir uansett morsomt å få prøvd, er den bedre enn Intel er jeg glad til. Da må Intel strekke seg litt lengre til høsten og det er det klare indikasjoner på at de vil gjøre. Jeg er som sagt mer interessert i C300 men det er mulig Micron har klart å hype den så mye at man glemmer SandForce. En av kritikkene med SF kontrollerene er måten de reduserer skriveoperasjonene på som går ut på at de komprimerer data. Dette vil fungere på mange datatyper men ikke på allerede komprimerte datastrømmer eller krypterte data for den saks skyld. Det blir uansett spennende. Lenke til kommentar
GullLars Skrevet 8. februar 2010 Del Skrevet 8. februar 2010 (endret) Det blir spennende med C300, SF-1200 og SF-1500 ja. Som en tribute til Apex og Colossus har jeg satt opp to sett med 3D diagrammer for random read. Dette er simulerte jalla RAID-drives basert på 2-4 x25-V, tallene er tatt fra ICH10R. Block område 4-64KB viser realistisk random read område, og 64KB QD32 vil vise ca lik sekvensiell les. Her er simulert 6Gbps RAID-drive etter hvor mange i internt RAID: Og her er simulert 3Gbps RAID-drive etter hvor mange i internt RAID: Jeg vil påpeke at C300 har ca 355MB/s maks les, og dette blir lett overgått av 3R0 x25-V. Max 4KB random read IOPS på 50K (i 6Gbps mode) blir også knust grundig. Om intel hadde gitt ut en 3,5" RAID-drive med SATA 6Gbps og 3/4 x25-V internt i RAID på en kontroller som støttet 600MB/s båndbredde og NCQ (QD=32) ville det kunne konkurrert mot de kommende SSDene både på pris og ytelse. EDIT: disse jalla RAID-drive oppsettene vil ha skriv på ca 35-40MB/s ganger antallet i internt RAID, men dette vil også være random write. vi snakker da 40K IOPS random write (ikke sustained, men så lenge det finnes ledige blokker) og 88K random read IOPS (begge 4KB) fra en 160GB 6Gbps jalla RAID-drive til ca 4000kr. 600MB/s sekvensiell les og 140MB/s sekvensiell skriv. Endret 8. februar 2010 av GullLars Lenke til kommentar
Anv Skrevet 8. februar 2010 Del Skrevet 8. februar 2010 (endret) Morsom sammenligning, jeg hadde lett tatt en single V40 6Gb/s Hvis man har mulighet til raid så er valget relativt enkelt selv etter at C300 og SandForce er sluppet men i f.eks bærbare er valget litt værre. Jeg mener å huske fra 25nm artiklene at 6Gb/s er på tapetet til høsten sammen med sterkt forbedret ytelse ved skriving. edit: En utfordring som burde være løselig er å øke IOPs ved QD1-4. Endret 8. februar 2010 av Anvil Lenke til kommentar
GullLars Skrevet 8. februar 2010 Del Skrevet 8. februar 2010 (endret) Anvil, her har jeg laget et kjapt utkast til hvordan en 3,5" Intel 4R0 V RAID-drive SATA 6Gbps kan se ut. Ved å klippe og lime tilgjengelige deler burde det være mulig å lage en slik til ca 4000-4500kr. (5600 om RAID-kontrolleren er LSI 9211) Tenk å koble 8 sånne på LSI 9211 og bruke den som ren HBA (kjøre 8R0 software i windows). Da kan man nå de 300K IOPS kontrolleren er spesifisert å klare. Med 100% skalering snakker vi da 300K random read 4KB IOPS, i underkant av 300K random write 4KB IOPS (så lenge det er ledige blokker. ca 50-100K sustained), ca 4000MB/s les og 1100-1200MB/s skriv. Endret 8. februar 2010 av GullLars Lenke til kommentar
Anv Skrevet 8. februar 2010 Del Skrevet 8. februar 2010 Det hadde vært interessant å prøve noe sånt men man måtte da være litt over normalen kyndig med elektronikk Jeg har ikke bestilt 9211'n enda, er egentlig mer enn nok fornøyd med 9260'en. Det kan hende jeg slår til i forbindelse med at de nye SSD'ene kommer nå i februar/mars. Jeg prøvde litt på å software raide 9260 + Perc i Windows men det var ikke noen umiddelbar suksess. Jeg får kanskje prøve til helgen igjen. Lenke til kommentar
Anv Skrevet 9. februar 2010 Del Skrevet 9. februar 2010 Jeg vet ikke om denne minitesten av Crucial C300 har vært linket før. Link Ser bra ut men nå må det snart dukke opp skikkelige tester snart. Lenke til kommentar
Teac Skrevet 9. februar 2010 Del Skrevet 9. februar 2010 Går det an å sette opp et raid med 1 stk Intel 80 gb g2 og en 1 stk Intel 40gb? Vil man få noen ytelsesøkning av det? Lenke til kommentar
Anv Skrevet 9. februar 2010 Del Skrevet 9. februar 2010 Det går an men det vil bli litt tullete. Du vil få bare 80GB størrelse i raid-0 (minste størrelse * 2). Det er best å gjøre slikt med 2 like "disker", dvs 2x 40GB eller 2 på 80GB. Lenke til kommentar
Teac Skrevet 9. februar 2010 Del Skrevet 9. februar 2010 Det går an men det vil bli litt tullete.Du vil få bare 80GB størrelse i raid-0 (minste størrelse * 2). Det er best å gjøre slikt med 2 like "disker", dvs 2x 40GB eller 2 på 80GB. Ok. Var det jeg trodde.. Får legge 40gben i skuffa og la den støve vekk Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå