Gå til innhold

Lanserer rimelig 10 GbE-svitsj for små og mellomstore bedrifter


Anbefalte innlegg

Videoannonse
Annonse
Gjest Slettet-jDflNq

 

Latterlige priser. Hva er grunnen til at 10GbE skal koste så vanvittig mye? Maskinvaren kan umulig å være så voldsomt mye dyrere å produsere sammenlignet med 1GbE at man skal ta prisen x 10+.

 

Og hvorfor blir ikke 10GbE mer utbredt blant forbrukere? Hvorfor er det ikke et større fokus og et større push? Behovet for høyere båndbredde øker for hvert år, og fiber blir mer og mer vanlig og utbredt til hvertfall norske hjem så det å etterhvert kunne pushe over 1GbE grensa er så absolutt reelt. Økt båndbredde og bedre infrastruktur lokalt i eget nettverk har jo heller ingen ulemper.

 

At man stadig pusher for trådløse standarder som skal ha teoretiske hastigheter som er høyere enn hva som er normalen for kablet nettverk er jo noe spesielt. Er det produsentene som vil tviholde på 10GbE som noe som er myntet på bedrifter så de kan fortsette å ta skyhøye priser?

Er vel penger og behov som avgjør dette.

Selv skulle jeg gjerne kjøpt en slik switch, er fint å ha istedenfor å ha en PC stående 24\07.

Men trekker alt for mye strøm og koster for mye. Backupbay.no er eneste som tar fornuftige priser på 10 gigabit utstyr.

 

Gleder meg til man ser mediaconverter\router som støtter 10 gigabit.

Det skjer neppe før 2020.

Du kan ikke sammenligne BackupBay med dette.

 

1. De selger 5 år gamle brukte nettverkskort Selvfølgelig er det billigere å kjøpe brukt enn nytt.

2. Nettverkskortene er SFP+ og ikke 10GBASE-T. Er en stor begrensning for folk flest da fiber er langt mer upraktisk en kobberkabler.

Lenke til kommentar
Lenke til kommentar

Om man sitter og setter opp sine egne servere og PC´er og trenger brutalt overføringshastighet og kan koble alt direkte kan rett og slett utgåtte fiberkort og fiberkabler være en gode idé. FC utstyr på 4-8 Gbit er det mange bedrifter som kaster. Støtter vel også kabellengder på ganske mange titalls meter. Kan fint kobles direkte mellom PC´er og servere om alt er stasjonært. Switcher derimot blir noe annet....

 

Man kan også få tak i utgåtte dual og quad ethernet kort og bundle porter. Siste alternativ er å gå for 10 Gbit kort og koble disse direkte sammen uten switching. Det er dog ikke all verdens kabel lengde på kobber på 10 Gbit. Dessuten er kablene ganske feite og stive....

 

Problemet med å koble alt sammen direkte er at du må styre rutingen. Ikke helt trivielt. Å bundle GigE gir ingen nevneverdig ytelsesforbedring for filoverføring/backup til én og samme server, prøv selv. Det gir en effekt på serveren når den håndterer flere GigE klienter samtidig. Og det kan selvsagt gi en effekt om klienten overfører til/fra flere servere samtidig. Ikke et helt vanlig hjemme-scenarie. Det er flere flaskehalser enn båndbredden.

Lenke til kommentar

 

Om man sitter og setter opp sine egne servere og PC´er og trenger brutalt overføringshastighet og kan koble alt direkte kan rett og slett utgåtte fiberkort og fiberkabler være en gode idé. FC utstyr på 4-8 Gbit er det mange bedrifter som kaster. Støtter vel også kabellengder på ganske mange titalls meter. Kan fint kobles direkte mellom PC´er og servere om alt er stasjonært. Switcher derimot blir noe annet....

 

Man kan også få tak i utgåtte dual og quad ethernet kort og bundle porter. Siste alternativ er å gå for 10 Gbit kort og koble disse direkte sammen uten switching. Det er dog ikke all verdens kabel lengde på kobber på 10 Gbit. Dessuten er kablene ganske feite og stive....

Problemet med å koble alt sammen direkte er at du må styre rutingen. Ikke helt trivielt. Å bundle GigE gir ingen nevneverdig ytelsesforbedring for filoverføring/backup til én og samme server, prøv selv. Det gir en effekt på serveren når den håndterer flere GigE klienter samtidig. Og det kan selvsagt gi en effekt om klienten overfører til/fra flere servere samtidig. Ikke et helt vanlig hjemme-scenarie. Det er flere flaskehalser enn båndbredden.

Det spørs da helt på protokoller og hva som utgjør hashen som fordeler trafikken på linkene. Utstyret jeg jobber mest med hasher på flere verdier i framene/IP-pakkene, og fordeler trafikken over linkene. Så en enkelt flow vil ikke gå over 1Gbit/s, men to flows der hashene mappes til hver sin fysiske link vil få 1Gbit/s hver (unidirectional).

Lenke til kommentar

Asus er også ute med en billig 10GB lan switch: Asus XG-U2008. Koster ca 250$, altså ganske spiselig for de fleste som vil ha 10Gbit lan imellom 2 maskiner. http://www.newegg.com/Product/Product.aspx?Item=N82E16833320323

Denne har dog bare 2 stk 10Gbit rj45 porter og resten 1Gbit porter. Akkurat passe for hjemmenettverk. Passer veldig bra for meg også, fordi jeg har 10Gbit lan imellom hovedpc og hovedserver.

Endret av Nizzen
Lenke til kommentar

Asus har også fått hovedkort med 10GB lan. Asus x99 ws 10GB. Jeg bruker Asrock sitt x99 ws 10GB hovedkort og en 

Thecus 10Gbit rj45 adapter i den andre pc'en
Lenke til kommentar

 

 

Om man sitter og setter opp sine egne servere og PC´er og trenger brutalt overføringshastighet og kan koble alt direkte kan rett og slett utgåtte fiberkort og fiberkabler være en gode idé. FC utstyr på 4-8 Gbit er det mange bedrifter som kaster. Støtter vel også kabellengder på ganske mange titalls meter. Kan fint kobles direkte mellom PC´er og servere om alt er stasjonært. Switcher derimot blir noe annet....

 

Man kan også få tak i utgåtte dual og quad ethernet kort og bundle porter. Siste alternativ er å gå for 10 Gbit kort og koble disse direkte sammen uten switching. Det er dog ikke all verdens kabel lengde på kobber på 10 Gbit. Dessuten er kablene ganske feite og stive....

Problemet med å koble alt sammen direkte er at du må styre rutingen. Ikke helt trivielt. Å bundle GigE gir ingen nevneverdig ytelsesforbedring for filoverføring/backup til én og samme server, prøv selv. Det gir en effekt på serveren når den håndterer flere GigE klienter samtidig. Og det kan selvsagt gi en effekt om klienten overfører til/fra flere servere samtidig. Ikke et helt vanlig hjemme-scenarie. Det er flere flaskehalser enn båndbredden.

Det spørs da helt på protokoller og hva som utgjør hashen som fordeler trafikken på linkene. Utstyret jeg jobber mest med hasher på flere verdier i framene/IP-pakkene, og fordeler trafikken over linkene. Så en enkelt flow vil ikke gå over 1Gbit/s, men to flows der hashene mappes til hver sin fysiske link vil få 1Gbit/s hver (unidirectional).

 

 

Setter man opp to VMware servere med LACP på så får man jo utnyttet hastigheten rimelig bra da.... Evt freenas med LACP

Lenke til kommentar

 

 

 

Om man sitter og setter opp sine egne servere og PC´er og trenger brutalt overføringshastighet og kan koble alt direkte kan rett og slett utgåtte fiberkort og fiberkabler være en gode idé. FC utstyr på 4-8 Gbit er det mange bedrifter som kaster. Støtter vel også kabellengder på ganske mange titalls meter. Kan fint kobles direkte mellom PC´er og servere om alt er stasjonært. Switcher derimot blir noe annet....

 

Man kan også få tak i utgåtte dual og quad ethernet kort og bundle porter. Siste alternativ er å gå for 10 Gbit kort og koble disse direkte sammen uten switching. Det er dog ikke all verdens kabel lengde på kobber på 10 Gbit. Dessuten er kablene ganske feite og stive....

Problemet med å koble alt sammen direkte er at du må styre rutingen. Ikke helt trivielt. Å bundle GigE gir ingen nevneverdig ytelsesforbedring for filoverføring/backup til én og samme server, prøv selv. Det gir en effekt på serveren når den håndterer flere GigE klienter samtidig. Og det kan selvsagt gi en effekt om klienten overfører til/fra flere servere samtidig. Ikke et helt vanlig hjemme-scenarie. Det er flere flaskehalser enn båndbredden.

Det spørs da helt på protokoller og hva som utgjør hashen som fordeler trafikken på linkene. Utstyret jeg jobber mest med hasher på flere verdier i framene/IP-pakkene, og fordeler trafikken over linkene. Så en enkelt flow vil ikke gå over 1Gbit/s, men to flows der hashene mappes til hver sin fysiske link vil få 1Gbit/s hver (unidirectional).

 

 

Setter man opp to VMware servere med LACP på så får man jo utnyttet hastigheten rimelig bra da.... Evt freenas med LACP

 

 

Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender :)

Lenke til kommentar
Gjest Slettet-OvFPdyiZ

Mitt spørsmål er, hvordan står det til med innmaten i disse?

 

En har jo allerede det problemet på billige gigabitsvitsjer at joda, hver enkelt port er gigabit, men så er switching fabric for veikt til å kunne støtte det. Er en heldig er det i stand til kanskje 10gbit throughput, på de rimeligste er en ganske langt ned mot 1gbit.

Om du tar en god enterprise-svitsj som f.eks Cisco 2960X, en mye brukt kantsvitsj for bedrifter som kjøper nyt i dag, er innmaten i stand til 216gbit, for å kunne støtte 48 porter i fullduplex pluss uplink-porter og stackingmoduler. Det er teoretisk mulig å makse ut svitsjen, men da skal du som sagt ha maksimal dataoverføring mellom samtlige punkt samtidig. (men dette er da også grunnen til at en 2960X-svitsj koster betraktelig mer enn 10gbit-svitsjen som omtales i artikkelen her).

 

Som kantsvitsj i en bedrift ville jeg foretrukket en god gigabit-svitsj fremfor en billig 10gigabit. Om klientene dine trenger å kjøre konstant last over 1gbit er det på tide å revurdere arkitekturen litt. Da ville jeg flyttet de klientene over på distribusjonssvitsjer eller brukt en SFP+modul for kobber.

 

Det eneste en "normal" bedrift potensielt trenger mer enn 1gbit til i kant per i dag er for å fore trådløse aksesspunkt, da en enkelt gigabit-kobling kan makses ut av et AC wave 2-aksesspunkt (Wave 2 har en PHY rate på opptil 3,5gbit, men siden wifi er halvduplex gir det en rå båndbredde på 1,75gbit, som en fint leverer til aksesspunktet med doble gigabit-lenker. Den endelige IEEE-spec'en på AC er PHY rate på 6,9gbit, så da trenger man multi-GbE kobling frem til aksesspunktene).

 

Hva så med futureproofing? Vel, før 10GbE tar av for alvor er alt du måtte kjøpe av svitsjer per i dag modent for utskifting likevel.

 

 

Så, glem kjempebillig 10GbE, kjøp heller skikkelig GbE inntil videre. Om du virkelig har behovet for 10GbE i aksess har du allerede så syk hardware på gang ellers at du kan rive i på en skikkelig 10GbE-svitsj.

Lenke til kommentar

Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender :)

 

 

Jaha? Kan du forklare hvordan det skal settes opp?

 

For ytelse har jeg nok av: SSD RAID 0 i begge ender av dual 10Gb. Diskene alene klarer å levere nok til å fylle en 10Gb kanal, samme gjør PCIe-kanalene.

Men i praksis er de ikke engang i nærheten av å få til dette når vi snakker filoverføring fra én klient. Det stopper på rundt 200 MB/s, altså ca. 1,6 Gb/s. Og tro meg, jeg har tunet og tweeket i timesvis, det er så optimalt som det nok er mulig å få det. Problemet er, i følge en masse folk som har peiling, at nettverksimplementasjonen i Windows ikke klarer å levere mer på én sesjon. Skal forsøke med Linux en dag jeg har tid, men erfarings sier meg at det neppe kommer til å utgjøre noen betydelig forskjell.

Lenke til kommentar

 

Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender :)

 

 

Jaha? Kan du forklare hvordan det skal settes opp?

 

For ytelse har jeg nok av: SSD RAID 0 i begge ender av dual 10Gb. Diskene alene klarer å levere nok til å fylle en 10Gb kanal, samme gjør PCIe-kanalene.

Men i praksis er de ikke engang i nærheten av å få til dette når vi snakker filoverføring fra én klient. Det stopper på rundt 200 MB/s, altså ca. 1,6 Gb/s. Og tro meg, jeg har tunet og tweeket i timesvis, det er så optimalt som det nok er mulig å få det. Problemet er, i følge en masse folk som har peiling, at nettverksimplementasjonen i Windows ikke klarer å levere mer på én sesjon. Skal forsøke med Linux en dag jeg har tid, men erfarings sier meg at det neppe kommer til å utgjøre noen betydelig forskjell.

 

Prøv følgende råd:

 

http://www.anandtech.com/comments/8781/asrock-x99-ws-e-10g-motherboard-review-dual-10gbaset-for-prosumers/433021

 

AtW

Lenke til kommentar

Setter man opp to VMware servere med LACP på så får man jo utnyttet hastigheten rimelig bra da.... Evt freenas med LACP

 

LACP gjør absolutt ingen forskjell. Jeg kjører LACP både på 1Gb/s kanalene (der har det en viss effekt), og på 10Gb/s. På 10Gb har det overhodet ingen effekt, siden den ikke engang klarer å utnytte så mye som 20% av den ene kanalen.

 

I stedet har jeg fiklet med iSCSI og Multi-path IO (MPIO), det gir noe. Da har man to sesjoner per iSCSI target, og disse kjører på hver sin 10Gb link. I teorien. I praksis er overhead stor på protokollnivå, så effekten blir liten.

 

Skal du utnytte 10Gb må du ha flere klienter mot én server.

Lenke til kommentar

 

 

Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender :)

 

 

Jaha? Kan du forklare hvordan det skal settes opp?

 

For ytelse har jeg nok av: SSD RAID 0 i begge ender av dual 10Gb. Diskene alene klarer å levere nok til å fylle en 10Gb kanal, samme gjør PCIe-kanalene.

Men i praksis er de ikke engang i nærheten av å få til dette når vi snakker filoverføring fra én klient. Det stopper på rundt 200 MB/s, altså ca. 1,6 Gb/s. Og tro meg, jeg har tunet og tweeket i timesvis, det er så optimalt som det nok er mulig å få det. Problemet er, i følge en masse folk som har peiling, at nettverksimplementasjonen i Windows ikke klarer å levere mer på én sesjon. Skal forsøke med Linux en dag jeg har tid, men erfarings sier meg at det neppe kommer til å utgjøre noen betydelig forskjell.

 

Prøv følgende råd:

 

http://www.anandtech.com/comments/8781/asrock-x99-ws-e-10g-motherboard-review-dual-10gbaset-for-prosumers/433021

 

AtW

 

Takker, skal forsøke!

Lenke til kommentar

 

Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender :)

 

 

Jaha? Kan du forklare hvordan det skal settes opp?

 

For ytelse har jeg nok av: SSD RAID 0 i begge ender av dual 10Gb. Diskene alene klarer å levere nok til å fylle en 10Gb kanal, samme gjør PCIe-kanalene.

Men i praksis er de ikke engang i nærheten av å få til dette når vi snakker filoverføring fra én klient. Det stopper på rundt 200 MB/s, altså ca. 1,6 Gb/s. Og tro meg, jeg har tunet og tweeket i timesvis, det er så optimalt som det nok er mulig å få det. Problemet er, i følge en masse folk som har peiling, at nettverksimplementasjonen i Windows ikke klarer å levere mer på én sesjon. Skal forsøke med Linux en dag jeg har tid, men erfarings sier meg at det neppe kommer til å utgjøre noen betydelig forskjell.

 

 

Jeg stillte ikkje på noe. Det bare funka på full pubb med en gang. Like bra fra win 10 til win 8.1 som win 10 til win 10. Ved overføring av mkv filer var jeg oppe i 1.15GB/s eller.no

Lenke til kommentar
  • 2 uker senere...

Kobber støtter 100 meter på 10gig, så lengden er god. AtW

 

Vell, nå som flere har fått prøvd seg på 10GBase-T så har det vist seg at det er store kompatibilitetsproblemer(1, 2) . Selv om kabelen er CAT6A, så er det utrlolig mange andre faktorer som sørger for at det ikke fungerer, selv det er en flunkende ny CAT6a kabel eller flunkende nytt Intel nettverkskort.

 

Jo kortere lengde, jo større sannsynlighet er det at 10GBase-T vil fungere.

 

Men nå driver jo alle bedrifter med 25G linker, eller 50G eller 100G over QSFP28

 

PS, Windows har en elendig nettverkimplementasjon og sliter fort når hastigheten blir over 4G, tror Windows Server 2016 skal komme med en vesentlig forbedring her. Uansett om du ønsker 10G hastigheter på Windows så må du bruke RDMA.

Lenke til kommentar

 

Kobber støtter 100 meter på 10gig, så lengden er god. AtW

 

Vell, nå som flere har fått prøvd seg på 10GBase-T så har det vist seg at det er store kompatibilitetsproblemer(1, 2) . Selv om kabelen er CAT6A, så er det utrlolig mange andre faktorer som sørger for at det ikke fungerer, selv det er en flunkende ny CAT6a kabel eller flunkende nytt Intel nettverkskort.

 

Jo kortere lengde, jo større sannsynlighet er det at 10GBase-T vil fungere.

 

Men nå driver jo alle bedrifter med 25G linker, eller 50G eller 100G over QSFP28

 

PS, Windows har en elendig nettverkimplementasjon og sliter fort når hastigheten blir over 4G, tror Windows Server 2016 skal komme med en vesentlig forbedring her. Uansett om du ønsker 10G hastigheter på Windows så må du bruke RDMA.

 

 

Ser ut som det hovedsaklig er snakk om folk som ikke har utstyr som er i henhold til spec. 

 

Jo kortere lengde jo større sannsynlighet, men det gjelder alle hastigheter, det er ikke noe spesielt med 10G (utover at det nok er mer sannsynlig at man opererer nærmere max-spec på kabelen.

 

Nei, alle bedrifter bruker ikke det til å dekke sine nettverksbehov.

 

AtW

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...