Gå til innhold

OCZ Vertex SSD


Anbefalte innlegg

Videoannonse
Annonse

Så jeg har et spørsmål. Hvor lang tid tror dere det vil ta før vi får standarder for de andre delene i PCen slik at de kan utnytte SSD bedre? Vi trenger et godt filsystem, antageligvis en bedre overføringsstandard enn SATA (med strøm), og jeg syntes det er på tide med en liten SSD integrert i hovedkortet for bios/bootloader osv.

Lenke til kommentar
..

SSD kan motvirke denne feilen ved å ha blokker som OS ikke har tilgang til, ved enten overprovisjonering av blokker (SSDen har høyere kapasitet enn windows ser), eller at man ikke partisjonerer hele SSDen (om dette fungerer på alle SSDer vet jeg ikke).

Hvordan kan man teste om dette gjelder for Vertex også? I tilfellet hvor stor ledig partisjonen trenger man, like stor som Itel's 7-8% (ca. 2.5GB) ?

Lenke til kommentar
Så jeg har et spørsmål. Hvor lang tid tror dere det vil ta før vi får standarder for de andre delene i PCen slik at de kan utnytte SSD bedre? Vi trenger et godt filsystem, antageligvis en bedre overføringsstandard enn SATA (med strøm), og jeg syntes det er på tide med en liten SSD integrert i hovedkortet for bios/bootloader osv.

Det er noen SSD på vei med en bedre standard, som har strøm i grensesnittet, dette kalles PCIe ;) Men foreløpig ser det ut som en del SSD vil fortsette å komme med SATA/SAS for sømløs kompabilitet med eksisterende lagringsløsniger.

Selv er jeg en stor forkjemper for PCIe.

 

Men idèen din er fin den, en integrert mindre SSD på hovedkortet høres fint ut forutsatt at den er av OK kvalitet. Det kunne f.eks. vært morsomt med et HTPC-hovedkort på micro-ATX med integrert 4GB DDR2, 32/64GB SSD, GPU, lydkort (med HW prosessing, ikke kodek skit), nettverk, og trådløst nettverk. (Alså, alle disse pleide å være løse enheter tidligere)

Lenke til kommentar

Problemet med PCIe er at det er få slots, så det er vanskelig å utvide med flere disker.

Når det gjelder den integrerte SSDen tror jeg kanskje en egen slot for f.eks. CF-kort er en bedre ide når jeg tenker meg om. Men den må ikke være koblet til med USB eller IDE, men direkte til northbridge :)

Lenke til kommentar
Gjest Slettet-Pqy3rC
Selv er jeg en stor forkjemper for PCIe.

Så lenge en SSD enhet ikke overstiger båndbredden til SATA er det ingen grunn til å benytte PCIe grensesnittet direkte.

Dersom du her 6-7 SSD'er liggende og vil ha maks ut av et RAID kjøp deg en PCIe kontroller (de har eksistert i mange år), dette vil jo være tilnærmet det samme som å ha et FusionIO kort.

Lenke til kommentar
Selv er jeg en stor forkjemper for PCIe.

Så lenge en SSD enhet ikke overstiger båndbredden til SATA er det ingen grunn til å benytte PCIe grensesnittet direkte.

Dersom du her 6-7 SSD'er liggende og vil ha maks ut av et RAID kjøp deg en PCIe kontroller (de har eksistert i mange år), dette vil jo være tilnærmet det samme som å ha et FusionIO kort.

Beklager, men jeg finner flere feil på flere nivå i denne påstanden.

1. Det finnes allerede en del SSDer som kan overskride SATA 3Gbps, og SATA 6Gbps som kommer senere i år. Teknologien finnes, og det er ikke noe problem å lage, det har eksistert i flere år (fusion-IO's prototype ioDrive ble demonstrert offentlig i 2007).

2. Det er veldig mange dårlige HBA der ute, og å kjøpe en SATA/SAS raidkontroller for å få en av bedre kvalitet mener jeg er unødvendig. Pluss at man har mulighet for uperfekte drivere til kontrollerne.

3. SATA-grensesnittet er ikke optimalisert for SSD, og kontrollerene som oversetter til og fra SATA skaper unødvendig latency, og det begrenser også mulige kommandoer.

4. 6-7 SSDer på et hardware raidkort kan ikke slå en native PCIe SSD, siden dette oppsettet må konvertere signalene til/fra SATA, og eventuelt beregne paritetsdata. Det blir unødvendig kostbart, og får høyere latency.

 

 

Pros for PCIe:

1. Det er et grensesnitt som finnes i alle nye maskiner.

2. Det blir praktisk talt ubegrenset tilgjengelig båndbredde PCIe x16 v2.0...

3. Det er minimalt med knutepunkter og potensielle problemer fra buss slot til CPU og RAM.

4. Det er ingen overganger mellom protokoller og grensesnitt.

5. Større mulighet for å optimalisere SSDen uten å trenge å tenke på kontrollere utenfor enheten.

6. Enkelheten og ryddigheten. Ingen kabler, bare smett den rett i slotten og boot (enheten kan selv ha BIOS (og drivere?) på internt minne).

7. Mulighet for mye kraftigere kontrollere med egen aktiv kjøling og mer avansert kontrollerteknologi. Og dersom det følger formfaktor til større skjermkort, god plass til mange TB med lagringskapasitet.

8. Mulighet for mini-utgaver med x1 bredde til HTPC og laptopper, omtrent som en USB-penn med PCIe.

 

Cons mot PCIe:

1. Plass. Det er begrenset antall porter, og det blir kamp mot PCIe-lanes med skjermkort og andre ekspansjonskort.

2. Det er mulig det vil trengs drivere, og ikke alle vil støtte boot, siden det sikkert vil være noen produsenter som ikke inkluderer BIOS på kortet.

3. Det vil kreve noe mer kontrollerteknologi, så prisene kan bli litt høyere enn for harddisk formfaktor i starten.

4. Motforestillinger fra folk som liker lagring i formfaktorer de har vært vant med i mange tiår :p

 

Har du fler, så kom med de ;)

Endret av GullLars
Lenke til kommentar
Gjest Slettet-Pqy3rC
1. Det finnes allerede en del SSDer som kan overskride SATA 3Gbps, og SATA 6Gbps som kommer senere i år. Teknologien finnes, og det er ikke noe problem å lage, det har eksistert i flere år (fusion-IO's prototype ioDrive ble demonstrert offentlig i 2007).

Helt greit, benytt PCIe. Derimot er det liten grunn til at dagens Vertex skulle benytte PCIe da den ikke er i nærheten av å benytte båndbredden.

2. Det er veldig mange dårlige HBA der ute, og å kjøpe en SATA/SAS raidkontroller for å få en av bedre kvalitet mener jeg er unødvendig. Pluss at man har mulighet for uperfekte drivere til kontrollerne.

Vel, om alle som lager SSD'er skal lage et PCIe grensesnitt og driver vil det gi passelig dyre enheter. FusionIO (som et eksempel) er ikke billig akkurat.

3. SATA-grensesnittet er ikke optimalisert for SSD, og kontrollerene som oversetter til og fra SATA skaper unødvendig latency, og det begrenser også mulige kommandoer.

Du har rett i at det behøves en protokoll som er mer tilpasset flash minnet's ulemper enn hva SATA er, men at produsentene skal måtte gå via en avansert PCIe basert kontroller vil bli kostbart.

4. 6-7 SSDer på et hardware raidkort kan ikke slå en native PCIe SSD, siden dette oppsettet må konvertere signalene til/fra SATA, og eventuelt beregne paritetsdata. Det blir unødvendig kostbart, og får høyere latency.

Det trenger bare utnytte båndbredden og ikke "slå" noe som helst. Du kan tenke at noen etterhvert lager PCIe kontrollere som kan tilknyttes mange SSD'er og at kommunikasjonen med disse ikke nødvendigvis er via SATA. Ref. punktet over.

 

1. Det er et grensesnitt som finnes i alle nye maskiner.

I hvilken grad ? 1 eller 2 PCIe 16 spor. PCIe spor er fysisk MYE større enn SATA og derfor vil det være vanskelig å få inn mange slike på et ATX kort. SATA har en mer omgjengelig fysisk størrelse.

2. Det blir praktisk talt ubegrenset tilgjengelig båndbredde PCIe x16 v2.0...

Greit nok dersom alle SSD'er virkelig kan utnytte dette i fremtiden.

3. Det er minimalt med knutepunkter og potensielle problemer fra buss slot til CPU og RAM.

Tja... mange PCIe spor på HK i dag går via southbridge.

4. Det er ingen overganger mellom protokoller og grensesnitt.

5. Større mulighet for å optimalisere SSDen uten å trenge å tenke på kontrollere utenfor enheten.

Det er langt mer komplisert å lage både kontroller og driver til en PCIe basert enhet. Det er derfor PATA/SATA (dvs. IDE) ble oppfunnet, slik at produsentene skulle slippe å lage en kontroller i hver enhet. Vi trenger noe annet enn SATA, men jeg tror ikke svaret er PCIe.

6. Enkelheten og ryddigheten. Ingen kabler, bare smett den rett i slotten og boot (enheten kan selv ha BIOS (og drivere?) på internt minne).

Den slår begge veier. Sirkulasjon samt plassproblemer når plassering av enheten må være i en slot på HK.

7. Mulighet for mye kraftigere kontrollere med egen aktiv kjøling og mer avansert kontrollerteknologi. Og dersom det følger formfaktor til større skjermkort, god plass til mange TB med lagringskapasitet.

Dette virker å gå baklengs. Større er ikke bra i utgangspunktet.

8. Mulighet for mini-utgaver med x1 bredde til HTPC og laptopper, omtrent som en USB-penn med PCIe.

PCIe x1 har vel ikke allverdens med båndbredde (eller var det ikke det du tenkte?)

4. Motforestillinger fra folk som liker lagring i formfaktorer de har vært vant med i mange tiår :p

Meget tungtveiende ! :D

 

Jeg er enig i at SATA ikke er løsningen for flashbasert SSD (eller noen andre typer SSD), men jeg anser heller ikke PCIe som veien å gå pga kompleksitet og fysisk størrelse. Det bør komme en type kontroller protokoll tiltenkt denne typen enheter slik at fordelene med SATA kan beholdes samtidig som ulempene reduseres.

Lenke til kommentar

Beklager hvis det virket som et angrep, det var ikke meninga.

Det jeg mente med påstanden min var at jeg ser på SSD som en form for maskinvare-aksellerator, på samme måte som skjermkort, lydkort, og andre dedikerte enheter. For bruk som det er en buss med kortest mulig vei til prosessor og RAM optimalt, og pr i dag har vi allerede et bra grensesnitt som passer omtrent perfekt for jobben. Som jeg har nevnt i cons, plass kan bli et problem, og problemet med plass og tilgjengelige slots er klart det største motargumentet mot PCIe.

Man trenger ikke nødvendigvis lage enheter så dyre som ioDrive er, ioDrive er rettet mot servere, yter på nivå med mange SAN, og er faktisk priset veldig lavt i forhold til sine konkurrenter. Dersom man lager en tilsvarende SSD rettet mot entusiaster og forbrukermarkedet vil det være mulig å lage mye billigere løsninger.

OCZ gjorde f.eks. et halvhjertet forsøk med Z-drive. De tok en RAID-kontroller, 4 vertex, koblet det sammen, og puttet et deksel på med form omtrent som et skjermkort. For å demonstrere enkelheten og kapasiteten på denne tilnærmingen hadde enheten 1TB kapasitet og klarte opp til 900-1000 MB/s peak i benchmarks, 700/500 MB/s sustained.

Jeg håper enten OCZ (med sin neste generasjon) eller en konkurrent heller lager en native PCIe, der kontrolleren snakker kun PCIe og FlashProtokoll. Et sånt oppsett kan fortsatt bli mye billigere enn ioDrive og yte opp mot 100.000 IOPS både les og skriv med riktig bruk av RAM write-caching og write attenuation sammen med noe overprovisjonering. Og ved å begrense kapasiteten på noe slikt til si 100GB og la de siste 28 gå med til overprovisjonering og bruke 1GB RAM vil det kunne bli til en levelig pris.

 

Det jeg mente med en mini-utgave for PCIe x1 til HTPC/laptop var egentlig en mindre enhet til å ha OS på som støttet boot. Alså et lite kort med en kontroller, en mindre RAM brikke, BIOS, og noen få NAND brikker (og muligens et lite batteri for å kunne dumpe RAM til flash). Størrelsemessig omtrent som et CF kort. En slik enhet vil være kjempekjekt for en del maskiner, siden de aller fleste har PCIe, og 250 (for v1) eller 500 MB/s (for v2) burde være nokk båndbredde i massevis dersom IOPS henger med.

Slike kort finnes allerede med mini-PCIe for netbooks, min fantasi er bare med PCIe x1 for vanlige maskiner også, og med bedre IOPS... :p

I bunn av første posten i SSD-tråden er det linker til videoer fra CES, en av de er fra BitMicro (tror jeg det var) som hadde laget en høykvalitets mini-PCIe SSD for netbooks som hadde vill ytelse, som ble demonstrert i en standard netbook.

 

EDIT: og det er også mulig å ha PCIe SSD som masselagring, som OCZ har bevist. Et kort på størrelse med et skjermkort med 1TB kapasitet, og det burde være lett mulig å overgå, siden BitMicro har en 3,5" MLC SSD med 6,4TB kapasitet...

Et annet alternativ som jeg diskuterte i en annen tråd er å lage nye PCIe kontrollerkort som bruker en annen form for grensesnitt enn SATA som host for SSDer i diverse formfaktorer (5,25" xxTB anyone?). FiberChannel og SAS ble luftet som eksisterende muligheter.

Endret av GullLars
Lenke til kommentar

Hei!

 

Etter å ha lest litt i denne tråden så har jeg vel kommet til at tiden nå kanskje er inne for å pensjonere de gamle WD Raptor diskene mine.

 

Men før jeg legger inn en bestilling, så lurte jeg på om noen kunne hjelpe meg med noen enkle spørsmål:

 

Følger det med mounting bracket fra 2,5" til 3,5", eller er dette noe jeg må kjøpe separat?

 

Planen er å kjøre 2 stk 30GB Vertex i RAID 0 som OS/Sys-disk og 2 stk Vertex 60 eller 120 GB i RAID 0 som "programdisk"

Er det noe å hente på å kjøre disse diskene i RAID 0 ifm oppstart av OS og loading av spill, eller vil forskjellen være marginal?

 

Er 2 stk 30GB Vertex i RAID 0 stor nok til å legge inn fullversjonen av Win 7 når den kommer? Mener å ha lest et sted at Vista krever minimum 40 GB ledig diskplass?! Usikker på hva Win 7 vil kreve?

 

Glemte å si at maskinen min er en ren spillmaskin og at jeg nå bruker en RocketRaid 2310 SATA-kontroller.

Lenke til kommentar

Du vil ikke trenge mounting bracket, gaffa eller strips funker fint. Hvis du absolutt vil ha noen form for montering, så er denne veldig fint, spesielt dersom du skal ha 4stk. Det er en hotswap cage som passer i èn 5,25" og kan holde 4 2,5" enheter. Den har 4 SATA-utganger bak, og krever kun èn vanlig 4-pin strømkontakt, så den sparer deg for en del kabelrot. Jeg har 2 slike selv, en montert og en som ligger på hylla til senere.

 

Synes også at valget av disker og oppsett høres veldig bra ut. Siden du har et rocket raid kort og raptorer regner jeg med at du har litt peil på raid og vet hva du driver med. ;)

Lenke til kommentar

Takker og bukker!

 

Den hotswap cage'n har jeg aldri sett før.

Den så jo veldig bra ut på bildene: http://www.chieftec.com/SNT1042SS.html

Likte veldig godt det med at jeg sparer en del kabling!

Må nok koste på meg en slik en ja! :thumbup:

 

Hvordan er varmeutviklingen i en SSD ift en standard HDD? Blir det ikke varmt da med 4 stk SSD så tett inntil hverandre selv om cage'n kommer med et par vifter?

 

Har egentlig ikke så veldig peiling på RAID, men fikk da det oppsettet jeg har nå til å funke etter noen timer med banning! :p

Prøvde først å sette opp det hele med SB600 sørbrikken på det gamle HK'et mitt (ASUS M3A32 MVP-Deluxe) Men den SB600 brikken kan du få billig av meg! :thumbdown:

Så da ble det en RocketRaid 2310 i stedet. Den funker bra og var utrolig lett å installere.

Nå har jeg byttet til et M3A79 HK men har fortsatt beholdt RocketRaid'n.

 

Ok! Da skal jeg få lagt inn en bestilling på www.mwave.com i løpet av kvelden.

Men ref forrige innlegg. Er to stk 30GB Vertex i RAID 0 store nok til fullversjonen av Win 7?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...