Gå til innhold

SSD-tråden: info om og diskusjon rundt SSD


Anbefalte innlegg

Videoannonse
Annonse

Tenkte jeg skulle komme med mitt eget utkast til en PCIe SSD som jeg har tenkt på et års tid nå.

Her er et kjapt og grovt utkast jeg laget i paint :p

post-163450-1247329777_thumb.png

Ting som ikke er på bildet som er med i tankene:

EDIT: -ikke RAID nivå 0, men CLUSTER

-256MB av første RAM som write cache, resten til "user defined" eller "intelligent" (hot-files) read cache.

-Driversoftware som lar bruker definere hva som skal plasseres i 768MB read cache (etter filstørrelse, filtype, plassering, read-ahead, aktive filer, etter script, osv).

-Driversoftware som også gir mulighet for administrering av datadistribusjon (etter filstørrelse, filtype, plassering, osv) for optimalisering av levetid/ytelse.

-Systemet ser data skrevet til første cache som "flushed" pga battery backup og gir kort

write accesstime.

-Driversoftware som gir mulighet for å automatisk holde "write-hot-files" i cache så lenge de har blitt skrevet til nylig eller permanent (med dump hver x minutt).

-ECC; 24 bytes gjenopprettelige pr 512, foregår i ARM.

-Write-attenuation.

-Ca 20% overprovisjonering av flash for wear leveling og garbage collection.

-Kapasitet 4x32GB -20% = ca 100GB?

-Summert 2GB DDR2 RAM, 256MB for RAID write cache, 256MB pr "SSD" (4stk), 768MB read cache.

-Mulighet for tilkobling til ekstern UPS i PCIe backplane til (eller parallelt med?) batteriet.

-Optimalisering mot random read og sustained sequential write i "SSDene", men med god nokk sustained random write (3-5k?) og sequential read. (random write vil være astronomisk for første 1GB+ uansett pga cache).

-Bootable BIOS på samme måte som hardware RAID kort.

 

???Mulighet for (128bit AES?) hardware encryption med passord i BIOSen på kortet? (for kommersielt bruk, eller paranoide entusiaster :p). Det trengs vell egen ekstra prosessor for dette med 500-1000 MB/s :p

 

?Bruke Sandforce Enterprise kontroller eller Sandforce Mobile kontroller i stedet for ARM i "SSDene"?

Eller muligens x25-M (nye generasjon som kommer)?

 

 

Vil gjerne ha litt respons på hva dere synes om mine tanker på en "MIN!!!" SSD.

Endret av GullLars
Lenke til kommentar

Kjempeflott diagram! :)

 

Men hva er poenget med den første cachen? Kan ikke de fire ARM-prosessorene snakke sammen sånn at hver private cache kan brukes som et felles område? Og hvorfor ikke bruke ARM-prosessorene til å gjøre hele jobben for Master controller og PCIe controller? Hver av de blå områdene burde vært så smarte at det ikke en gang trengtes en MUX (som Master controller i praksis er på Raid1*) mellom de blå områdene og PCIe-bussen. Hvert blått område burde samkjørt med de andre sånn at de kjører ut riktige og synkroniserte data på sin fjerdedel av PCIe-bussen. F.eks på 4 av 16 PCI-e lanes.

 

Raid5/6 på Master controller-nivå mener jeg er unødvendig så lenge man har det på et lavere nivå. Dvs. Raid5/6 mellom hver av flashkanalene.

 

Egentlig burde man hatt bare én prosessor i stedet for 4 ARM-prosessorer men det ville krevd mange pinner å gi 1 DDR2-kanal + PCIe + 32 Flash-kanaler. Derfor er det nok lurt å dele det opp på den måten.

 

Ellers så kunne nok ARM med fordel vært byttet ut med spesialiserte prosessorer, men det krever nok alt for mye og dyrt utviklingsarbeide for en liten SSD-produsent. Så ARM eller lignende er nok lurt i hvertfall i en tidlig fase.

Lenke til kommentar
Kjempeflott diagram! :)

 

Men hva er poenget med den første cachen? Kan ikke de fire ARM-prosessorene snakke sammen sånn at hver private cache kan brukes som et felles område? Og hvorfor ikke bruke ARM-prosessorene til å gjøre hele jobben for Master controller og PCIe controller? Hver av de blå områdene burde vært så smarte at det ikke en gang trengtes en MUX (som Master controller i praksis er på Raid1*) mellom de blå områdene og PCIe-bussen. Hvert blått område burde samkjørt med de andre sånn at de kjører ut riktige og synkroniserte data på sin fjerdedel av PCIe-bussen. F.eks på 4 av 16 PCI-e lanes.

 

Raid5/6 på Master controller-nivå mener jeg er unødvendig så lenge man har det på et lavere nivå. Dvs. Raid5/6 mellom hver av flashkanalene.

 

Egentlig burde man hatt bare én prosessor i stedet for 4 ARM-prosessorer men det ville krevd mange pinner å gi 1 DDR2-kanal + PCIe + 32 Flash-kanaler. Derfor er det nok lurt å dele det opp på den måten.

 

Ellers så kunne nok ARM med fordel vært byttet ut med spesialiserte prosessorer, men det krever nok alt for mye og dyrt utviklingsarbeide for en liten SSD-produsent. Så ARM eller lignende er nok lurt i hvertfall i en tidlig fase.

Jeg skal ikke ta full ære for diagrammet, jeg har stjålet litt fra Mtron (link er pdf-fil, diagrammet er på side 6).

 

Valget av ARM i denne enheten er pga det er enheten Mtron har brukt i sin 7500 enhet (2. generasjon PRO), og den klarte 130/120 MB/s sustained sekvensielt og nokk random read. Med optimalisert firmware og lokal cache for kontrolleren (ARM) burde det fint være mulig å overgå. (jeg tenker da spesielt på å overgå random write som Mtron ikke har optimalisert for i det hele tatt)

 

Grunnen til bruk av RAID logic er for å få lokalisert wear leveling, ECC, og garbage collection. Faktisk ser jeg at jeg har bommet litt på diagrammet mitt, jeg har skrevet RAID, men egentlig mente jeg CLUSTER, alså er det ikke èn fiksert stripe over enhetene, men mulighet for å jobbe fritt i parallell.

 

Grunnen til plasseringen av den første 1GB cachen er for å gi lavest mulig accesstime, og for å gi master controlleren som skal organisere cluster nokk tid og data å jobbe med. Med cluster mener jeg at i stedet for tradisjonelt RAID som striper fikserte block-størrelser over enhetene så kan den la være å gi data til en av enhetene dersom denne er opptatt med andre ting, eller plassere data på den måten som er mest hensiktsmessig. Dette er også en av grunnene til at jeg har lagt ved en intelligent driver som aksepterer user input, så data kan bli mye mer optimalt organisert (og driveren kan da også kjøre TRIM). Disse første 256MB med cache som brukes til skriving blir også write-back så systemet virkelig kan behandle data som om det er skrevet til mediet med en gang det er mottatt i SSDen.

Å ha 1GB cachen kortest mulig fra bussen gir også lavere accesstime til de data som ligger i 768MB read-cache, og frigjør dataresurser i ARM'ene.

 

Grunnen til 256MB lokal cache i alle 4 enhetene er for å la cluster-kontrolleren burste store mengder data av gangen (dersom denne får det fra systemet til sin cache), gi ARM'ene tid til å ta seg av skriving, ECC, wear leveling, og garbage collection samtidig, og la disse ha litt plass til read-ahead før cluster-kontrolleren kan ta i mot dersom den er opptatt.

 

Jeg tok også med i tankene antall pins som trengs for forskjellige minnekanaler, og mengden dataresurser som kreves for diverse. ARM burde ha nokk kraft til å klare ECC, wear leveling, garbage collection, og muligens kryptering (som kanskje ville gått på bekostning av ytelse), og fortsatt holde unna 150-200 MB/s sekvensielt og 20k+ IOPS les og min 5k IOPS skriv sustained (forutsatt 20% overprovisjonering av flash og god firmware). Og i tillegg om det er ryddet unna plass på forhånd med TRIM kan det være snakk om betydelig burst-rates fra cache til cache, og fra cache til 8x flash-kanaler når det ikke er noe SATA i bildet i det hele tatt. Dette er da pr ARM enhet, og så er det 4 av disse i parallell.

Master-kontrolleren som organiserer cluster tar seg da av write attenuation, ekstern LBA til intern LBA, og intern LBA til fysisk plassering og LBA-pools, såvell som optimalisert tildeling av data ut fra status til ARM'ene, og organisering av read-cache. Dette blir sansynligvis større mengder informasjon enn en ARM ville klart å holde unna, derfor en egen kraftigere kontroller ;)

 

Prinsippet med cluster er forresten det samme som fusion-IO bruker i ioDrive.

 

EDIT2: Cluster i stedet for RAID (både i Master og i ARM) gir mulighet for dataduplisering av VIP-filer enten pga sikkerhet eller ytelse. Små men viktige filer (eller grupper/typer av filer) kan kopieres til fler NAND-brikker eller ARM-enheter.

Større media-filer kan bruke 512KB granularitet og stripes over alle 64 plan (2 plan pr NAND-brikke som kan lese parallelt) og leses med stor hastighet sekvensielt fra alle samtidig (eventuelt stykkevis til read-cache dersom det kun kreves en sekvensiell strøm ved en gitt hastighet).

Databasefiler eller filer som vil ha tilnærmet 100% tilfeldig aksess kan stripes i 4KB stykker (eller 512byte?) over alle plan og settes sammen ute av sammenheng til 512KB blokker. De segmentene som har høyest lese-aktivitet kan dupliseres, holdes i lokal cache, eller plasseres i 786MB read-cache til master-kontrolleren, og områdene med høy skriv-aktivitet kan holdes permanent i cache enten lokalt eller hos master.

Endret av GullLars
Lenke til kommentar

Det jeg tenkte var batteri backup på hele enheten, så den første RAM cachen kan sees på som non-volatile, alså får programmet som skriver data beskjed om at den er lagret på mediet med en gang den treffer den første cachen, siden den er færre steg fra CPU og RAM enn de interne cachene i hver enhet vil det gi kortere accesstime. Det samme vil også gå for den delen som blir brukt som read-cache, siden den er færre steg fra CPU/RAM blir det accesstime på nivå med RAM-SSD (størrelseorden 10 µs) både på skriv og les fra cache.

 

Merk dere at dette bare er en enhet jeg har fantasert frem fra tilgjengelig teknologi, og det er ikke noe som er laget eller meldt at kommer til å bli laget. Jeg regner med vi kommer til å se noe som ligner på dette prinsippet om et års tid.

Fusion-IO har brukt lignende teknologi i 2 år allerede i sin ioDrive, men der har de ikke noen stor cache eller enheter med cache bak cluster-kontrolleren, men selve cluster-kontrolleren tar ansvaret for alle NAND-brikkene. Etter hva jeg har oppfattet har de klart dette ved hjelp av en egenutviklet kontroller.

Platinum HDD har også laget en SSD med 1GB RAM cache, så idèene er ikke nye, det er bare kombinasjonen.

Endret av GullLars
Lenke til kommentar

Tja gi oss noen flere gode tilbud på X25-M 80GB :p

 

EDIT:

Forøvrig har Multicom blitt helt spinnvill på prisen til G.Skill Falcon 256GB. De priser den nå nesten 1000,- høyere enn Ultradrive ME 256GB ligger på i markedet. Helt tullete.

 

EDIT2:

For morroskyld lagde jeg en liten prisoversikt over de mest aktuelle SSDene for øyeblikket. Tok også med et par som kanskje ikke er så aktuelle, men greit for å se. Dette er generellt greie SSD produkter så da er pris per GB interessant.

post-38451-1247544073_thumb.jpg

 

Med dagens priser er det to modeller som peker seg ut som spesielt prisgunstige:

- G.Skill Falcon 128GB til 2982,-

- SuperTalent Ultradrive ME 256GB til 5795,-

 

Skal man kjøpe SSD nå kan jo disse to være verdt å titte på. Vel, inntil butikkene finner ut at de vil "ødelegge" prisene igjen.

Endret av Theo343
Lenke til kommentar
Tja gi oss noen flere gode tilbud på X25-M 80GB :p

 

EDIT:

Forøvrig har Multicom blitt helt spinnvill på prisen til G.Skill Falcon 256GB. De priser den nå nesten 1000,- høyere enn Ultradrive ME 256GB ligger på i markedet. Helt tullete.

 

EDIT2:

For morroskyld lagde jeg en liten prisoversikt over de mest aktuelle SSDene for øyeblikket. Tok også med et par som kanskje ikke er så aktuelle, men greit for å se. Dette er generellt greie SSD produkter så da er pris per GB interessant.

post-38451-1247544073_thumb.jpg

 

Med dagens priser er det to modeller som peker seg ut som spesielt prisgunstige:

- G.Skill Falcon 128GB til 2982,-

- SuperTalent Ultradrive ME 256GB til 5795,-

 

Skal man kjøpe SSD nå kan jo disse to være verdt å titte på. Vel, inntil butikkene finner ut at de vil "ødelegge" prisene igjen.

 

Fin oversikt, men kan være greit å få med seg Kingston X25-M 160GB til ca. 5500,-, den er på lager på Komplett til 5595,- eller 34,97 pr. GB.

 

Nesten to tusen under Intel's prising er ingenting å kimse av :yes:

Lenke til kommentar

Hadde de testet med Areca 1680ix eller Areca ML serien, så hadde fått mere futt i SSD diskene.

 

Etter å ha sett at det er ganske mye problemer med Adaptec og ssd, så viser det seg at Areca er best på alle felt. Båte SATA, SAS og SSD :)

 

Men det gjenspeiler prisen også da :p

Lenke til kommentar

Ble uansett kontroller skeptisk til den testen. Aner ikke hvorfor.

 

Hadde de testet med Areca 1680ix eller Areca ML serien, så hadde fått mere futt i SSD diskene.

 

Etter å ha sett at det er ganske mye problemer med Adaptec og ssd, så viser det seg at Areca er best på alle felt. Båte SATA, SAS og SSD :)

 

Men det gjenspeiler prisen også da :p

 

Vennligst utred!:

https://prisguiden.no/fritekst_sok....&pricemax=0

 

Så de 4-på topp....?

Lenke til kommentar

Hei hei folkens da er jeg tilbake etter en lang og go ferie! Jeg sa for en stund siden at jeg skulle poste det jeg klarte å få ut av mine 6 x 30 GB vertex disker på minn nye ADAPTEC 5805 RAID kontroller!!

 

Får å gjøre det kort og greit, DET LOT SEG IKKE GJØRE! Kontrolleren ble alt for varm selv etter jeg monterne vifte og prøvde mange andre kjøle løsninger kneler kontrolleren etter at jeg instalerte 4 ssd disker!

 

men men jeg kunne ikke ha 6 disker bare liggenes på pc pulten minn så jeg kjøpte meg Areca ARC-1680IX-12 SAS RAID kontroller fra Nextron fikk noe rabat selv om det svidde litt i lommeboka!

 

Kontrolleren ligger på postkontoret og venter på meg nå. Skal hente den etter jobb! Så det kommer noen tester utover natten etter jeg har twika litt her og der!

Endret av zitrix2
Lenke til kommentar

Theo,

 

Jeg har brukt Dell's PERC 6/i og den fungerer meget bra mot Intel SSD'er. Prisen er ca 3000,- + kabler til noen 100 lapper.

 

Den støtter Raid 0,1,5,6,10,50 og 60.

Krever en PCIe x8 slot for full speed men fungerer selvsagt også i en x4 slot.

 

Passerer 1GB/s båndbredde ved 4 stk X25-M i raid-0 og raid-5.

 

NB!

På enkelte hovedkort må pin 5-6 (SMBus) blokkes ellers funker det bare ikke. (fungerte uten problem på ASUS P5Q og på GigaByte UD5)

Krever aktiv kjøling.

Lenke til kommentar

Tilgi meg at jeg ikke har klart å lese alle innlegg (som ikke er rent få), men jeg har faktisk lest mye både her og på ocz-forumet. ;)

 

Jeg har bestilt en Vertex 60 Gb som jeg skal hente i ettermiddag, og har noen praktiske spørsmål.

 

Hovedkortet mitt er et noe aldrende Abit AB9 Pro, med Intel ICH8R southbridge. Operativsystem er Windows 7 RC. Jeg har ikke sett at dette skal avstedkomme noen kompatibilitetsproblemer, så regner med at det går bra. Det blir uansett snakk om reinstall av Windows for min del, og jeg vil da velge AHCI mode.

 

Jeg skal ikke ha RAID-oppsett, men bruke disken som systemdisk sammen med vanlige SATA-lagringsdisker (Samsung Spinpoint). Bør jeg likevel velge RAID-mode i BIOS?

 

Noe annet jeg må være oppmerksom på? Må jeg laste ned nye drivere av noe slag før jeg begynner å installere, eller støtter W7 install disc dette som standard? Det er lenge siden Abit sluttet å oppdatere firmware til hovedkortet mitt...

Endret av lysbryter
Lenke til kommentar

Etter hva jeg har fått med meg har ikke vertex aktivert kompabilitet for AHCI i firmware (alså får du ikke noen spesielle fordeler av å bruke det), og anbefalt fra OCZ er RAID mode i BIOS siden det gjør det mulig for vertex å benytte noen av AHCI-funksjonene, mener jeg på.

 

Jeg installerte W7 på en ny PC her hjemme (hos foreldre) med AHCI-mode og den trengte ikke drivere. Prøv først uten drivere, og gi den vista-drivere for ICH8 hvis den ikke finner enheten.

Lenke til kommentar

For de som vil følge med på Intels nye SSD så kan dere søke på

"Intel Postville" eller

SSDSA2MH080G2C1 den nye 80GB'rn

SSDSA2MH160G2C1 160GB

320GB vil trolig hete SSDSA2MH320G2C1

 

De har dukket opp i noen nettbutikker i Europa og der er prisene som på de nåværende modellene men dette kan fort endre seg.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...