Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 Her er noen andre benchmarks av 4R0 X25V/Kingston V 40GB Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) Pene tall, men hvorfor fikk CDM lavere les tall enn AS SSD? Det er veldig skjeldent å se. Når det gjelder Toms Hardware testen har de gjort noe tull der. Mozze har jo benchet til over 400MB/s på SB750. De måler over 600MB/s streaming reads/writes, men sier det er feil fordi "interface bandwidth" stopper på 230MB/s. IOPS tallene i testen er også alt for lave over hele linja, så jeg vet ikke hva de har surra med. Det irriterer meg litt at jeg ikke så den testen når den var ny. EDIT: Det hadde vært kjempefint om noen med 2 x25-M i RAID fra ICH10R kunne kjørt IOmeter configen så jeg får lagt til det i grafen, da det koster det samme som 4R0 x25-V og single x25-M 160GB. EDIT2: Det hadde også vært kjempefint om du hadde hatt mulighet til å teste 1-4R0 V 40GB på 9260 i løpet av helga anvil Jeg tror skaleringen vil bli bedre der. Endret 6. februar 2010 av GullLars Lenke til kommentar
Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 Blir ikke helt klok på AS SSD, den er svært variabel i enkelte tilfeller. Jeg kjørte bare 1 omgang så 1 omgang ekstra hadde helt sikkert gitt andre resultater. Jeg kjørte forresten noen runder med QD64 som det var en dropp på og fikk tall som stemte rimelig bra med der den burde ha vært. Saken er vel den at disse andre faktorene på maskinen (raid kontrollere, strømstyring, ja jeg bruker EIST ) kan påvirke ytelsestallene innimellom. For å få 100% konsekvente tall måtte jeg ha kjørt på en maskin hvor dette ikke var inne i bildet og det er ikke enkelt i disse tider. P55 klokker seg selv opp/ned etter egen fri vilje og det er i grunn bare 2 av dem jeg har utenom som kunne vært benyttet. Kanskje jeg gjør et forsøk i kveld på en av dem. Ellers var det brukbare tall og ved lav QD stemte de bra med G2 SSD'ene. Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) Se filmen hos Youtube Jeg har snublet over en veldig nyttig oppdagelse. Her kommer historien. Anders Jensen var uenig i det jeg har skrevet i bunn av signaturen min: IOPS=(1/average accesstime)*QD, og sa i fra om det i SSD tråden, så jeg bestemte meg for å lage bevis for at dette stemte. I prosessen snublet jeg over en interresant og veldig nyttig oppdagelse. Alle tallene brukt her er fra 1-4 x25-V / Kingston V single og 2-4R0 på ICH10R som anvil benchet i går. Bevis for IOPS=(1/Average Accesstime (i sekunder))*QD 16KB og 64KB, QD 1-128, 1 Worker Som dere ser er det største avviket fra formelen 0,27% for disse block størrelsene. Det samme stemmer for 4KB også, men jeg kom over noe veldig interresant når jeg skulle lage tabellene for 512B: 512B og 4KB, QD 1-128, 1 Worker og 8 Workers. Her ser dere det er et betydelig avvik ved 3R0 og 4R0, spesielt ved høyere QD. Fra hva jeg kan se er dette fordi man har truffet et IOPS tak som ikke påvirker accesstime. Dette betyr at formelen jeg har satt opp gjelder spesialtilfellet der SSDene ikke er IOPS flaskehalset av kontroller eller CPU. Noe jeg også la merke til i samme slengen var at tallet jeg fikk ut fra formelen IOPS=(1/average accesstime)*QD for 512B 4R0 QD 128 sammenfalt ganske nøyaktig med MAX IOPS tallet Anvil fikk når han kjørte en custom config jeg satt opp med 8 workers (samme specs som standard config, men 8 workers med QD 8, 32, 128 (1, 4, 16 pr worker)). Man kan derved bruke formelen min til å forutsi hva max IOPS er dersom man møter et IOPS tak, og denne formelen kan også brukes til å undersøke OM oppsettet har truffet et IOPS tak Nå kan vi mye bedre undersøke RAID oppsett og RAID kontrollere enn tidligere Ved å teste kun 512B QD 1-128 og 4KB QD 1-128 (eller stepping 4^n for QD 1-64 i stedet for færre kjøringer på singel oppsett) kan alle nå rimelig fort undersøke om de har truffet et IOPS tak med oppsettet sitt Ved å gjøre samme testen med Workers = CPU Cores kan man også identifisere om det er singlethread/multithread ytelsen til CPU som er (hele eller delvis) flaskehalsen. Endret 6. februar 2010 av GullLars Lenke til kommentar
Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 Hmmm, spennende. At 8 workers skulle overgå prediction var jo litt overraskende men avviket var jo ikke stort. Det var jo nesten tilsvarende avvik ved 4K men andre veien. Nå må vi huske at verdiene ikke er konstante og vil påvirkes av degradering. Jeg satt og skulle reprodusere gårdagens kjøring men endte opp med å måtte kjøre en HDDerase for å komme nært nok. Jeg tror jeg er på sporet av hvorfor jeg får avvik innimellom og det er trolig relatert til EIST kombinert med valgt strømstyring i W7. Driver å tester det på nytt nå for å se om jeg får avvik eller ikke. Har du tilstrekkelig grunnlag til å fastslå hvor grensen går, det kan jo være at 1KB eller 2KB også blir omfattet av flaskehalsen. Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 Kan godt sjekke. Forresten, tenkte jeg skulle opplyse om det nå. Jeg har sitte noen timer og surret i OO Calc og MS Excell på dette prosjektet, og har nå fått arbeidsrutiner som gjør at jeg kan manipulere dataene mange ganger raskere enn tidligere. Jeg kan nå hente ut alle data av en csv fil på ca 2 minutter, og sortere etter IOPS, MB/s, average accesstime, etc for å sette opp grafer og tabeller ca like fort. Jeg lurer på om jeg skal poste V4 configen på XS i 9211 tråden og spøre om noen der vil bidra til prosjektet med input for bedre analyse av kontrolleren og oppsettene, og for å sammenligne med andre data. Jeg vil da sansynligvis velkomme data fra andre kontrollere også. Jeg har også tenkt å mekke 2 IOmeter configer for å lete etter IOPS bottlenecks. En som tester 512B, 4KB, 16KB, og 64KB ved QD 1, 4, 16, 64, 256 med singel worker, en som tester 4, 16, 64, 256 for de med Quad uten HT, og en med 8 workers som tester 8, 32, 128 (eventuelt 512 for 8R0 oppsett) for de med Quad med HT. Det blir 16 kjøringer på hver config, og ved å kjøre 1W og 4/8W kan man sjekke om HBA og/eller CPU er bottleneck, og eventuelt hvor mye. Pga store hopp i block size er dette en grov analyse, jeg kan lage custom configs for å analysere spekteret der eventuelle bottlenecks skulle vise seg mer grundig. Lenke til kommentar
Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 God ide vedrørende XS men lag en ny tråd. Dette fortjener rett og slett en egen tråd så å blande den inn i en eksisterende blir bare mer rot enn det er der fra før På den måten kan du også lage en kontrollert oversikt i de første postene. Spør heller i forskjellige tråder om de vil bidra. SteveRo og Tiltevros (og sikkert flere) er gode kandidater som liker sånt og har også mye godt utstyr. Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 God Ide med å lage egen tråd på XS om dette ja. Har du lyst til å være hjelper/sponsor der? Anders Jensen påpekte nettop at formelen jeg har funnet heter Littles Lov, så jeg har et tilfelle av å finne opp kruttet på nytt her Litt unødvendig, men veldig lærerikt Lenke til kommentar
Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 Hehe, jaja greit å finne ut av det selv. (bedre enn å stå nært da det smalt ) Jeg kan godt være med på tråden på XS, det er ikke noe problem. Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) Her er 1KB og 2KB som du ba om. Det ser ut som de ikke er flaskehalset. Du har en liten begrensning på 1KB 4R0 QD128 (ca 18%), ellers er alt under 0,5%. Tabeller: EDIT: noe som jeg stusser litt over er at 512B ser ut til å bli begrenset rundt 100-120K IOPS, mens 1K og 2K når 180K IOPS. Endret 6. februar 2010 av GullLars Lenke til kommentar
Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) Mener du at du har tall som viser at det stopper på 120' IOPs ved 4R0? (regnearket på forrige side og grafene viser rundt 180' IOPs) edit: Jeg har funnet en bug eller svaket om du vil som det ikke er noen logisk forklaring på. Når jeg velger Balanced får jeg jevnt over de beste IOPs tallene men en og annen uforklarlig dropp. Velger jeg High Performance får jeg tilsynelatende ingen drops men jevnt over dårligere IOPs. (vi snakker da om ICH) Differansen er betydelig dvs inntil 10' IOPs. edit2: Har satt på 2R0 X25-M G1 så blir vi kvitt den problematikken, skulle egentlig ha vært G2 men det blir det ikke fra meg. Endret 6. februar 2010 av Anvil Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) Nei, du leste litt feil her. IOPS for 512B ser ut til å stoppe rundt 100-120K IOPS med 1 worker, mens 1KB og 2KB er begrenset rundt 180K. Om du leser nøye det jeg skrev over stusser jeg over hvorfor IOPS for 512B har lavere tak enn 1KB og 2KB med 1 worker. Kanskje det er noe spesielt ved ICH10R. 2R0 x25-M 80GB? G1 burde gå greit å putte inn i grafene på forgie side. Fint du tar deg tid. Jeg skulle gjort det selv om jeg hadde hatt x25-M og ICH10R, men de ca 15.000kr (det koster å være tidlig ute ) jeg har brukt på SSD hittil får holde en liten stund. (2 av de er i foreldres PCer) Endret 6. februar 2010 av GullLars Lenke til kommentar
Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) 2R0 X25-M G1 på ICH10R stripe size 128KB. ICH10R_2R0_X25M_SS128KB.zip Dette yter bedre enn jeg hadde regnet med Det er tydelig at færre kanaler kveler V'en litt. Endret 6. februar 2010 av Anvil Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 Er det resultatet du postet nå fra 80GB eller 160GB enheter? Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) Jeg fant forresten ut saken med alt for lav 512B, jeg hadde kopiert feil kolonne for både 3R0 og 4R0. Med rettede tall er det bare QD128 for 4R0 som er større avvik. Rettet tabell 512B Da ble det bedre, men det er fortsatt en fin måte å identifisere flaskehalser, det er bare at du praktisk talt ikke har en med 4R0 x25-V EDIT: nye grafer med 2R0 x25-M G1 80GB lagt til kommer Endret 6. februar 2010 av GullLars Lenke til kommentar
Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 Bra du fant ut av det, jeg var sikker på at alle små blokker var rimelig like i antall IOPs. Tester nå X25-V på 9260 med 2GB testfil med den dårligste profilen på kontrolleren. (dvs rundt 65' IOPs) Det hadde kanskje vært like greit å teste med den som gir nesten 90' IOPs i denne sammenheng? Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) Ja, test med den som gir best IOPS. (hvis den er mulig å bruke på kontrolleren i praksis. Her er nye grafer for x25-M vs V på ICH10R. IOPS: Bandwidth: 2R0 x25-M G1 80GB legger seg mellom 2R0 og 3R0 x25-V. Det er mest å tjene på x25-V RAID ved lave block størrelser ser det ut som. EDIT: har du forresten IOPS og MB/s for 3R0 og 4R0 fra re-run på de to punktene der ytelsen droppet på grafene? Endret 6. februar 2010 av GullLars Lenke til kommentar
Anv Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 (endret) Jeg kjørte på 4R0 16KB QD64, det var den eneste som manglet for 4R0. Jeg må kjøre 3R0 QD16 og 2R0 QD32 når jeg er ferdig med LSI testen. Den med mest IOPs er helt OK men jeg bruker den ikke i det daglige. Jeg kjører en runde og sjekker mot resultatene jeg får med normal profil ved single SSD så får vi se om den duger. edit: Jeg hadde forventet at ytelsen med "full" kontroller skulle yte bedre enn den halve og det er det helt klart at den gjør, men ikke over hele linja. Endret 6. februar 2010 av Anvil Lenke til kommentar
GullLars Skrevet 6. februar 2010 Del Skrevet 6. februar 2010 OK, hva er instillingene for "normal profil"? Jeg ser forresten det er en del andre som leser her, men ingen andre som poster. Dere kan gjerne dele tanker om dette, eller enda bedre, kjøre V4 configen fra noen sider tilbake på et oppsett som ikke har blitt gjort det på enda. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå