Gå til innhold
Trenger du hjelp med internett og nettverk? Still spørsmål her ×

Lan tråden 10Gbit+


Anbefalte innlegg

Videoannonse
Annonse

Så du tror virkelig datasenter vurder raid? Med tanke på SCSI\SAS som gjør det mulig å ta ut harddisken uten å restarte serveren. Så ville raid fungert dårlig, særlig raid 0 når man deler ting over flere harddisker.

Blir en harddisk død eller borte så forsvinner alt på de diskene som er satt opp med raid.

 

Selv om man fysisk kan ta ut harddisken uten å miste data tviler jeg på det er lurt med tanke på levetiden.

Kan være grunnen til 10 gigabit ikke er så mye brukt.

Lenke til kommentar

Så du tror virkelig datasenter vurder raid? Med tanke på SCSI\SAS som gjør det mulig å ta ut harddisken uten å restarte serveren. Så ville raid fungert dårlig, særlig raid 0 når man deler ting over flere harddisker.

Blir en harddisk død eller borte så forsvinner alt på de diskene som er satt opp med raid.

 

Selv om man fysisk kan ta ut harddisken uten å miste data tviler jeg på det er lurt med tanke på levetiden.

Kan være grunnen til 10 gigabit ikke er så mye brukt.

 

Har du i det hele tatt peiling på RAID?

RAID er VELDIG utbredt i datasentre, også sammen med SAS og SCSI disker (SCSI er dog på vei ut).

Du lagrer ikke data du ikke kan miste i et RAID0, uansett om det er SATA eller SAS eller whatever.

RAID0 er kun for performance, ikke sikker lagring.

 

Du kan helt fint hotswappe (ta ut en harddisk) i RAID, selv om det er SAS/SCSI i RAID1/5/6/10/50 osv.

Dette er en helt normal prosedyre for ALLE leverandører av lagring.

 

 

Og nei, du trenger ikke noe SSD eller NVME disk i en switch som siDDis snakker om (om det er det du snakker om). Data sendes bare gjennom switchen, ingenting lagres lokalt.

Endret av TheHaughom
  • Liker 1
Lenke til kommentar

Ikke mye brukt? Vi har omtrent _kun_ 10G i våre datasenter. Og du har helt rett, vi kjører ikke mye RAID0, men du spurte om hva som skulle til for å kunne fylle en 10G link. Når det gjelder hot-swap og SCSI/SAS, så fungerer dette fint også på SATA. Men du må ha ett RAID oppsett som tåler bortfall av disk.

  • Liker 1
Lenke til kommentar

Men et sted må man vel ha:

HGST Ultrastar SN150 1.6TB

Om man skal ha utnytte av ekstreme hastighetet, vet ikke det er uvanlig å ha slike på datasenter.

Siden tenk dere Steam, uninett og orgin.

 

Ikke rart det går så tregt hvis de bare har harddisker.

Om de har kanskje 100 brukere som laster ned et spill, er bare SSD som har mulighet å gi rask ytelse her.

 

50 000 kr er ikke mye for datasenter, men man kan vel ikke ha 10 slike for å si det slik.

Selv om muligens uninett og andre kanskje har det.

 

Raid har vel det problemet hvis bios resettes eventuelt med bios oppdatering eller tomt bios batteri og strømbrudd forsvinner alt, det er ikke problem med PCI-E men de har andre problemer, f.eks med firmware mot hovedkort.

 

Noen tilfeller kan firmware både gi bedre\dårligere ytelse.

Endret av LMH1
Lenke til kommentar

Du tenker på at når du overfører data så skal lesast frå ein maskin og skrives til ein anna maskin. Sånn er det ikkje alltid.

 

F.eks Steam Home Streaming som fint kan utnytte 1-2Gbps hastigheit, generer video på spelmaskinen med grafikkortet og sender til klienten. Ingenting blir lagra nokon plass.

Lenke til kommentar

Testet å lage ein heimelaga SFP+ switch med FreeBSD 10.2 i natt. Funka som ei kula. Hadde 4 servere kobla til denne "switchen", der to av servere var kobla til den eine dual port SFP+ kortet og konfigurert som iperf servere og dei to andre kobla til som iperf klienter til det andre dual SFP+ kortet. Overføringshastigheten var 17GB/s, ingen tuning og default 1500 MTU. Koblet til samme NIC så fikk jeg 18.2 GB/s. Så på 1 minutt overførte jeg 1.1TB :D

Veldig interessant. Hva slags hardware brukte du? (på switchen)

Lenke til kommentar

Men et sted må man vel ha:

HGST Ultrastar SN150 1.6TB

Om man skal ha utnytte av ekstreme hastighetet, vet ikke det er uvanlig å ha slike på datasenter.

Siden tenk dere Steam, uninett og orgin.

 

Ikke rart det går så tregt hvis de bare har harddisker.

Om de har kanskje 100 brukere som laster ned et spill, er bare SSD som har mulighet å gi rask ytelse her.

 

50 000 kr er ikke mye for datasenter, men man kan vel ikke ha 10 slike for å si det slik.

Selv om muligens uninett og andre kanskje har det.

 

Raid har vel det problemet hvis bios resettes eventuelt med bios oppdatering eller tomt bios batteri og strømbrudd forsvinner alt, det er ikke problem med PCI-E men de har andre problemer, f.eks med firmware mot hovedkort.

 

Noen tilfeller kan firmware både gi bedre\dårligere ytelse.

 

Oi da, nå snakker du om ting du ikke har mye peiling på. Nå er det på høy tid at du slutter å skrive å begynner å lese, jeg vet ikke hvor gammel du er, men det er slik du lærer ting og det er noe du bør gjøre før du påstår ting du egentlig ikke vet så mye om. 

  • Liker 6
Lenke til kommentar

SFP+ er en transceiver som du putter i et SFP+ nettverkskort (f.eks. Mellanox ConnectX2).

 

En SFP+ transceiver koster $16 USD (fs.com), og 2-port nettverkskort koster rundt 300 kr på Ebay.

 

Hvis du tar med hovedkort, chassis, cpu osv. ender man jo opp på noen tusenlapper.

Endret av TheHaughom
  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...