Gå til innhold

Forskjell på 1000mbit kobber og 1000mbit?


Dal

Anbefalte innlegg

Er det servere som pusher mye traffik så kan du gjerne tenke på å bruke egne uplink/fiber porter. Du må du huske på at switcher ofte deler bus/asics/fabric med andre porter, selv om det står en gig på porten. Feks en typisk cisco 3560/2960 switch deler bus 8 og 8 porter.

Deler virkelig 8 porter samme 1000mbit, for å si det sånn? Så det er umulig for akkurat de 8 portene å få 1000mbit hastighet samtidig da altså?

Finnes det noe papir der dette går an å lese seg fram til for de forskjellige Cisco-modellene?

 

Med egne porter for uplinks/fiber så er på samme bus så unngår du dette problemet.

Hva mener du med dette? At det er KUN uplinken som bruker den ene bus/asics/fabric'en på switchen?

 

Men dette har vel strengt tatt lite med kobber vs fiber uplink å gjøre. For jeg antar at 8:1-prinsippet gjelder uansett om det er kobber eller fiber, så lenge switch-modellene er de samme?

 

For the record, så var/er planen å bruker C2960 i skapene (99% klienter), og en 4948 til å aggregere disse. Og siden en C4948 med kobber-porter er MYE billigere enn fiberutgaven, så kan det være greit å forhøre som om man taper noe i forhold til å bruke fiber som uplink mellom disse.

Lenke til kommentar
Videoannonse
Annonse

Nei switchen sliter hvis du peiser 1 gig traffik per port fra 1- 8. Vil du ha non-blocking så må du se på 4900 serien. Jeg mente at å bruke fiberuplinkene så deler du ikke bus med de andre kobberportene. Men tror kanskje det er en issue her, du har klienter. Kobber funker fett og ingen større latency og pakketap på så kort avstand. 4900 som distribusjon switcher er veldig redundant med 2 power suppy, lag 3, veldig bra troughput etc.

Endret av VictorOsborn
Lenke til kommentar

I en 3560 är det 8 portar per ASIC, dessa ASICar är i sin tur kopplade på bakplanet som är 16*2Gig.

 

Detta betyder att du fint kan skicka wirespeed trafik mellan servrar på samma ASIC, men du kan hamna i en överbokad situation om du skickar mycket inter-ASIC trafik. (men inte förrän bakplanet är fullt)

Endret av ior
Lenke til kommentar

Vel tror man skal gjøre det omvendt. Greit med intra traffic i mellom portene hvor E modellene sørger for bra throughput fordi den ikke trenger å bruke bakplanet men bruker egen ring. Men siden disse 8 portene deler ASICS så bør man spre serverne 8 og 8 porter så lenge det ikke er mye lokal traffik i mellom serverne. Traffik flowen er som regel ut til klientene her og der. Får man output drops pga høy traffik bør man tenke på dette. Samme man gjør på feks fiber uplinks hvor portene deler samme bus/fabric på kortet. Spre 10gig linkene over slottene så de ikke deler bus/asics/fabric.

Endret av VictorOsborn
Lenke til kommentar

Vanskelig å finne dokumentasjon men ser ut som det er 12 ACICS på en 48 + 4 2560 switch, altså 4 porter per ACICS controller.

 

SWITCH3560#sh controllers ethernet-controller port-asic stat

 

Da vil jeg tro at de 4 SFP portene deler en ACICS.

Tror problemstillingen med å fordele gjelder mest når det blir pushet utrolig mye traffic, er på aggresjons bokser og feks kant switch for HPC, serverfarm etc

Endret av VictorOsborn
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...