Ourasi Skrevet 11. desember 2009 Forfatter Del Skrevet 11. desember 2009 (endret) Bildet underst er fra min X25-E som er på 1. plass på lista, dog er det kjørt Vantage, IOMeter Random R/W+Workstation og CDM 3.0TP før AS SSD, så man kan nok legge til litt på denne scoren ved en optimal run.... De to øverste er tatt nå akkurat, og fikk litt bedre score faktisk, selv om den er brukt en stund... Endret 11. desember 2009 av Ourasi Lenke til kommentar
GullLars Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Dette høres kanskje rart ut, men jeg ønsker gjerne at en med x25-M på ICH10R og 10-30 minutter ledig i løpet av dagen utfører noen kjappe runder i IOmeter med følgende instillinger: 4KB 100% random 100% read 1 worker, QD pr test 1: QD=1 2: QD=2 3: QD=4 4: QD=6 5: QD=8 6: QD=10 7: QD=12 8: QD=14 9: QD=16 10: QD=32 11: QD=64 12: QD=128 13: QD=256 Meningen med dette er å teste effekten av QD i forhold til IOPS som følge av mettningen av de 10 kanalene. QD 1, 2, 4, 6, 8, 10 bør skalere omtrent [QD(n)]*[iOPS@QD=1 (K)] som en svakt avtagende graf alà f(n)=K(n/(10-b))a^(xn). (a (0>a>1) og x er da NCQ overhead, og b er antall av kanalene som ikke får forespørsel (float)) QD 10, 12, 14, 16, 32 vil vise kraftig avtagende stigning (diminishing returns) der b->0 og kontrollerens maks NCQ kapasitet blir nådd på 32. Accesstime vil sansynligvis stige noe fra 16 til 32. QD 32, 64, 256 blir interresant. Siden kontrolleren allerede har maks QD den kan behandle internt. Accesstime vil nok stige synlig, og vi får se om kontrolleren klarer å holde unna eller om IOPS taper seg fra overflow. Siden jeg sier kjappe runder og dette er en 100% read test vil parameterne 10-20 sekunder kjøring og 1-2GB lengde holde greit mener jeg på. Dette vil gi godt grunnlag for diskusjon og analyse, som vi enten kan ta her eller i SSD-tråden, og jeg får se hvor godt jeg har forstått x25-M og om jeg eventuelt har oversett noe arkitektur eller teoretisk sett. Alså 13 screenshots der IOPS, avg access og max access vil bli fine grafer. Endret 11. desember 2009 av GullLars Lenke til kommentar
Anv Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) QD1 2 3 4 5 6 7 8 9 10 11 12 14 16 32 64 128 Testen er kjørt på en G2 i et eSata kabinett på min bærbare, tror uansett at det er rimelig representativt. 1GB filstørrelse. 128 og 256 var nesten identisk med QD64. edit: flere underlag på QD1 og 14 QD14 da skulle du ha noen ekstra for dokumentasjon Endret 11. desember 2009 av Anvil Lenke til kommentar
GullLars Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 i just shat a brick... Setter i gang med excell graf nå. Ved et kjapt overblikk ser det ut som du har noe latency overhead (ca 0,1-0,15ms), og mystisk høy CPU%, alikevell ser IOPS nummerne ganske greie ut da jeg regner med dette er en enhet som er i "brukt" tilstand pluss at den er over eSATA på en laptop som sansynligvis ikke har hardcore hardware. Lenke til kommentar
Anv Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 Ja, det er en noe høy overhead og det kommer nok av eSata kabinettet. Ytelsen er meget bra på den bærbare men det blir selvsagt ikke det samme som en stasjonær, derav litt lavere resultater enn jeg har fått i post 1. G2'en er godt brukt men med TRIM. (den har vært full flere ganger) Lenke til kommentar
GullLars Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Da er jeg ferdig med å putte inn data i excell, kolonnene mine er: QD, IOPS, ΔIOPS, IOPS/QD, ΔIOPS/QD, Avg accesstime, ΔAvg acc, Max accesstime, Δmax acc, max/avg acc, CPU%***. Grunnen til stjernene på CPU% er fordi jeg synes 60-80% for QD>8 er noe mystisk, og dette kan ha påvirket resultatet. Samtidig vil jeg melde om anomalier i følgende QD: 1; max acc >9ms! 3; positiv ΔIOPS/QD!?! 6; laveste Max acc av alle QD 12; kraftig bump i ΔIOPS 14; max acc >16ms! høyeste av alle med god margin (5,69ms snitt, 4,67snitt uten 1+16) 16; -540 ΔIOPS Og det ser ut som jeg hadde rett angående stigningen av gjennomsnittlig accesstime fra 16-32-64-128. Første synlige økningen startet faktisk fra 12 til 14. Hadde du orket å kjørt QD 1 og QD 14 2 ganger til med 5 sekunder ramp-up så jeg kan fjerne max accesstime anomaliene? Disse er sansynligvis pga noe fra OS. Du kan godt ta 3 også om du vil, jeg vil ta snittet av disse 2/3 og forkaste orginalen som anomali men legge ved *kommentar. (Jeg var forresten ferdig med data input ca 17.30, somlet med omorganisering i 10 min, skrev post i 10 min, og satt og tenkte og rettet før jeg postet i 10 min til ) EDIT2: anvil, du kan forresten godt legge alle SS i en spoiler så vi slipper en 50K piksel side som sliter på langefingern Endret 11. desember 2009 av GullLars Lenke til kommentar
Kake24 Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Jeg skulle gjerne ha kjørt HDDerase, men jeg har problemer. Jeg har brent en DVD med HDDearse siden jeg ikke klarte å få PC-en til å boote med en USB minnepenn. Alt går greit til jeg kommer til punktet hvor jeg skal velge P0 osv. Jeg velger P0 og trykker enter, men etter en stund så får jeg en feilmelding . Er det noen som kan hjelpe meg å få kjørt HDDerase? Her velger jeg P0: Etter en stund får jeg denne meldingen "General failure reading drive A, Alert, Retry, Fail".. Se bildet under. Her er innstillingene mine i BIOS: Endret 11. desember 2009 av Kake24 Lenke til kommentar
Anv Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Jeg skal ta noen nye, blingset litt på hensikten du hadde Kommer straks justerte. Da var de oppdatert. edit: La ut en ny på QD16 også, hver kjøring gir litt forskjell som kjent. Endret 11. desember 2009 av Anvil Lenke til kommentar
Anv Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 Kake24, Hva har du som drive A? Du er på rett vei i og med at HDDerase ser SSD'en. (men det er noe som ikke er helt rett med innstillingene, tydeligvis) Lenke til kommentar
GullLars Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) QD1 og QD14 ser forholdsvis greit representert ut med SS nr 2 du postet. De er et greit snitt uten spesielt høy max acc. Jeg ser forresten at max acc hopper litt rundt selv på samme QD foretatt fler ganger på rad, det er tydeligvis noe som skaper små spikes i systemet en gang i blandt. Her er 3 grafer av datane du har samlet for meg (1024x666 ), og et screenshot av excell spreadsheet (1400x500). Jeg legger det i en spoiler. Grafer og spreadsheet; x25-M gen2 80GB TRIM FW over eSATA til laptop (merke og modell btw?) 4KB random read IOPS average accesstime max accesstime excell spreadsheet Håper dette kan være et grunnlag for diskusjon og analyse, og kanskje oppfordre til mer øvelser av dette slaget i juleferien for sammenligning av enheter og/eller kontrollere. Om vi får tilsvarende data for x25-M, 2x x25-M RAID-0 ICH10R, og 3x x25-M ICH10R kan vi foreta en nydelig dybdeanalyse av x25-M òg ICH10R og muligens bringe velkommen info til folka på XS også. Dere merker sikkert at jeg har skrevet på engelsk her, tentke det var like greit siden mesteparten er engelske "fag-uttrykk" uansett, og så slipper jeg å redigere noe for å evt poste på utenlandske sider eller vise utlendinger. GJ anvil Endret 11. desember 2009 av GullLars Lenke til kommentar
Anv Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Godt jobbet GullLars, Dette burde man gjort på flere SSD'er, både X25-E, Vertex og V 40GB og helst med SSD'en direkte koplet til maskinen og ikke via eSata. Resultatene spriker selvsagt litt men det er forventet, jeg hadde noen programmer oppe mens dette ble kjørt. edit: Det er en G2 160GB med 02HA firmware i et Silverstone 2.5" eSata kabinett. edit2: Det jeg ser umiddelbart fra grafen er at X25-M overgår max iops til Vertex allerede ved QD4. (max iops på vertex er ca 16') Endret 11. desember 2009 av Anvil Lenke til kommentar
Kake24 Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 Kake24, Hva har du som drive A? Du er på rett vei i og med at HDDerase ser SSD'en. (men det er noe som ikke er helt rett med innstillingene, tydeligvis) Kan det stemme at floppy står som drive A? Hvordan skjekker jeg hva som er drive A? Jeg har ikke en floppy så jeg valgte disable i BIOS der jeg kan velge type floppy, men det skjedde ikke noe nytt. Kan det være noe med .iso filen jeg har brent? Du har ikke tilfeldigvis en link til et sted hvor jeg kan laste ned en ny .iso? Lenke til kommentar
GullLars Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 Beklager på forhånd "Wall of Text" QD 1, 2, 4, 6, 8, 10 bør skalere omtrent [QD(n)]*[iOPS@QD=1 (K)] som en svakt avtagende graf alà f(n)=K(n/(10-b))a^(xn). (a (0>a>1) og x er da NCQ overhead, og b er antall av kanalene som ikke får forespørsel (float))QD 10, 12, 14, 16, 32 vil vise kraftig avtagende stigning (diminishing returns) der b->0 og kontrollerens maks NCQ kapasitet blir nådd på 32. Accesstime vil sansynligvis stige noe fra 16 til 32. QD 32, 64, 256 blir interresant. Siden kontrolleren allerede har maks QD den kan behandle internt. Accesstime vil nok stige synlig, og vi får se om kontrolleren klarer å holde unna eller om IOPS taper seg fra overflow. Resultater oppsummert sammenlignet med hypotese: QD 1-10: IOPS skalerte med gjennomsnittlig 3875 pr QD fra 1-10. og effekten fra a og b referert i sitatet ble -212IOPS/(QD-1). Jeg setter; K=IOPS@QD1 QD=n IOPS ved n = x_n a=Σ n_(1->10) ((x_n-x_(n-1))/n)/9, eller i andre ord a=[snitt ΔIOPS/QD fra QD 1-10] Jeg vil ved dette reformulere til f(n)=K+(an)(n-1) Denne formelen ga avvik +-5% fra observerte tall, ter QD2 var +5,6% og QD3 var -4,5% og QD4 var -3,6%, mens resten var innenfor 2%. Jeg skylder på anomalien i ΔIOPS for QD3 for unøyaktigheten i QD 2-4. Δms/QD gjennomsnittlig 0,015ms, dette er overhead, og er minimalt (5% økt overhead pr QD) fra QD 1-10. QD 10-32: ΔIOPS gikk mot 0 ganske fort, med gjennomsnittlig ΔIOPS=691 og ΔIOPS/ΔQD=139. Som antatt steg også average accesstime fra 0,342 til 0,994 =0,67ms forandring, gjennomsnittlig 0,03ms/QD, og det var et skille hvor avg accesstime begynte å øke raskere ved QD=14. QD 32-128: Som antatt steg avg accesstime betydelig. Fra 0,994 til 2,455ms, 1,461ms (over doblet), men bare 0,015ms/QD. Anvil postet ikke testen av QD 256, men ved å ekstrapolere tror jeg average accesstime vil bli ca 4,4ms. Anvil sa resultatet så likt ut, så jeg tar det som at IOPS var tilnærmet lik og ingen stor forskjell i max accesstime. Det ser alså ut som average accesstime/QD øker mest i området QD 12-16 (muligens noe høyere, trenger i såfall fler benchmarks for å bestemme nøyaktig, men det kan vi ta på intern SATA senere). Jeg synes dette var noe rart, og ville trodd det hadde vært 32+ økningen ville vært størst, men med så mange IO's vil ikke èn ekstra i køen øke snitt-tiden for de andre nevneverdig og vil igjenn gå mot 0 mens QD går mot uendelig. Noe av det mest interresante jeg fant ut i dag var f(n) i starten av innlegget, men også denne morsomme saken: IOPS/average accesstime: Kort sagt viser alså denne grafen hvor man får et balansert forhold mellom IOPS og accesstime. Om noen vil ha excell spreadsheet med rådata og formler er det bare å si fra i tråden så dump.no'r jeg det, eller evt PM. Meg gleder seg til juleferien Håper det blir litt inspirasjon til grundige IOmeter runder på mange typer SSDer og kontrollere. Lenke til kommentar
Anv Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Interesant graf, den viser bare at forholdene stemmer rimelig bra. Den første batchen med grunnlag var alle basert på første kjøring (derav avvikene) men det hadde vært mer korrekt å hatt 3 tester per QD og brukt snittet. Jeg kan kjøre en med QD256 bare for å ha det gjort. QD256 edit: Det begynner forresten å skje noe i ioxtreme tråden på XS. Link Her er samme testen (fulltest) han har gjort men på 160GB G2, fremdeles eSata. ca 1/3 av ytelsen Endret 11. desember 2009 av Anvil Lenke til kommentar
GullLars Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Mas på en admin og få de til å godkjenne kontoen min, det har gått en arbeidsdag uten at de har gjort noe. Jeg har lyst til å post der. Jeg ville trodd snitt accesstime hadde vært høyere for QD256, men den ser ut til å være lik 128... Her er forresten et par grafer jeg fant ut jeg måtte mekke rett etter den forgie jeg postet, men de dreiv og tulla i excell, så det tok litt tid. Det er ikke alltid så lett med gamer mus med 3200DPI og høy sense i windows. 1mm på skrivebordet er jo 100 pixsler IOPS/average accesstime grafen synes jeg er et veldig fint mål for SSD-ytelse. Både høy IOPS og lav accesstime blir belønnet, og det er om å gjøre å et godt forhold mellom dem i over hele linja, men spesielt QD 4-32 (lett bakgrunnsarbeid som tusler til lette/medium bursts). Jeg tror dette er en graf som vil skille x25-M og x25-E mer enn de fleste andre benchmarks, og jeg tror også den vil skille x25-M fra Barefoot og Samsung rimelig godt. Både 100% read, 100% write og 66% read (eller 75% read?) i spekteret QD 4-32 (pga NCQ) vil ha veldig mye å si for real world ytelsen man kan hente. Her er IOPS vs IOPS/average accesstime. og IOPS PLUSS IOPS/average accesstime. Denne likte jeg godt, siden den legger noe mer vekt høyere IOPS og derved høyere QD for tyngre IO-intensive multitasking scenarios, men dårlig accesstime straffer fortsatt hardt. Hva synes du? (EDIT: på den siste grafen der vil Enterprise SSDer, og spesielt ioDrive (ultra-lav latency fra cached LBA til fysisk lokasjon mapping i HOST RAM for direct-IO og 20(+?) kanaler) voldta alt av forbruker-SSDer) Endret 11. desember 2009 av GullLars Lenke til kommentar
Anv Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 Jeg synes begge er gode illustrasjoner, man skulle ha hatt en ioxtreme å kjørt de samme testene på Har du prøvd å logge på XS? Jeg husker ikke om jeg mottok mail før jeg kunne logge på! Lenke til kommentar
GullLars Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 Jeg har fulgt aktiverings-linken jeg fikk på mail, men fikk beskjed "your account awaits moderation" eller noe sånt, og at jeg kunne være logget på og lese på forumet, men ikke har poste-rettigheter ennå. PM en admin for meg om du gidder Samme nick som her på forumet. Lenke til kommentar
GullLars Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Ang benching av ioXtreme: Du kan jo få excell-dokumentet av meg og videresende det til lowfat og be han teste de 3 siste grafene jeg har postet... Du kan vell nesten bare linke til dette bildet så får han infoen han trenger: EDIT: kanskje be han om å ha litt lenger lengde på skrivetest om han gjør det. Forespør 100% write, og enten 66% read eller 75% read. Endret 11. desember 2009 av GullLars Lenke til kommentar
Agrophel Skrevet 11. desember 2009 Del Skrevet 11. desember 2009 (endret) Ser ein av folka har fått IOXTREME på xtremesystems.org http://www.xtremesystems.org/forums/showth...9030&page=7 Er ikke mye test enda. Men kommer vel Endret 11. desember 2009 av Agrophel Lenke til kommentar
Kake24 Skrevet 12. desember 2009 Del Skrevet 12. desember 2009 (endret) Da har jeg installert Windows 7 på nytt! Jeg tok med meg en HDDerase boot CD og SSD'en og lånte broren min sin PC, og da gikk alt helt fint med en gang Jeg har ICH7R og en Intel X25-M 80GB G2. Jeg har akurat installert Windows 7 og jeg har kjørt AS SSD Benchmark, er dette en grei score? Score: 414 Her er resultatene fra CrystalDiskMark 2.2. Ser dette greit ut? Seq: 262,7/88,90 512K 200,7/88,85 4K 22,57/69,26 Må jeg forresten aktivere TRIM manuelt for å ta det i bruk? EDIT: Lastet ned CrystalDiskMark 3.0 og da fikk jeg disse resultatene. Seq: 266,3/86,30 512K 204,1/88,35 4K 22,65/59,99 4K QD32 156,3/85,81 Endret 14. desember 2009 av Kake24 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå