ATWindsor Skrevet 17. oktober 2016 Del Skrevet 17. oktober 2016 Kobber støtter 100 meter på 10gig, så lengden er god. AtW Lenke til kommentar
Nobunaga Skrevet 17. oktober 2016 Del Skrevet 17. oktober 2016 Synes Ubiquiti EdgeSwitch 16 XG med 12 SFP+ og 4 kobber er et mer interessaant produkt. Og den er også mye billigere Lenke til kommentar
Gjest Slettet-jDflNq Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Latterlige priser. Hva er grunnen til at 10GbE skal koste så vanvittig mye? Maskinvaren kan umulig å være så voldsomt mye dyrere å produsere sammenlignet med 1GbE at man skal ta prisen x 10+. Og hvorfor blir ikke 10GbE mer utbredt blant forbrukere? Hvorfor er det ikke et større fokus og et større push? Behovet for høyere båndbredde øker for hvert år, og fiber blir mer og mer vanlig og utbredt til hvertfall norske hjem så det å etterhvert kunne pushe over 1GbE grensa er så absolutt reelt. Økt båndbredde og bedre infrastruktur lokalt i eget nettverk har jo heller ingen ulemper. At man stadig pusher for trådløse standarder som skal ha teoretiske hastigheter som er høyere enn hva som er normalen for kablet nettverk er jo noe spesielt. Er det produsentene som vil tviholde på 10GbE som noe som er myntet på bedrifter så de kan fortsette å ta skyhøye priser? Er vel penger og behov som avgjør dette.Selv skulle jeg gjerne kjøpt en slik switch, er fint å ha istedenfor å ha en PC stående 24\07. Men trekker alt for mye strøm og koster for mye. Backupbay.no er eneste som tar fornuftige priser på 10 gigabit utstyr. Gleder meg til man ser mediaconverter\router som støtter 10 gigabit. Det skjer neppe før 2020. Du kan ikke sammenligne BackupBay med dette. 1. De selger 5 år gamle brukte nettverkskort Selvfølgelig er det billigere å kjøpe brukt enn nytt. 2. Nettverkskortene er SFP+ og ikke 10GBASE-T. Er en stor begrensning for folk flest da fiber er langt mer upraktisk en kobberkabler. Lenke til kommentar
LMH1 Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 (endret) Intel OEM Ethernet Network Adapter X540-T1 Single Port RJ45 10Gb PCI Express x8 NEW DXE-820T Dual Port 10GBASE-T RJ45 PCI Express Adapter 10Gigabit Ethernet Intel 10G Dual Port RJ45 NIC Desktop PCIe Network LAN Adapter Card 10Gbe Fantes en til som jeg ikke husker navnet på farten. Verste er det finnes kun asrock med 10 gigabit hovedkort sokkel 2011-3. Her finnes det 2.5 gigabit switch: Managed Industrial 2.5 Gigabit Fiber Optic Ethernet Switch with 4-SFP slots and 8-UTP Ports Endret 18. oktober 2016 av LMH1 Lenke til kommentar
stigfjel Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Kan man egentlig stole på Netgear i virksomhetskritisk sammenheng, spør jeg meg om. Det er et fabrikat som leverer primært til hjemmemarkedet, og dermed ikke har den tyngden som kreves for å levere produkter gode nok for oppetid 24/7. Lenke til kommentar
Steinar Beider Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Om man sitter og setter opp sine egne servere og PC´er og trenger brutalt overføringshastighet og kan koble alt direkte kan rett og slett utgåtte fiberkort og fiberkabler være en gode idé. FC utstyr på 4-8 Gbit er det mange bedrifter som kaster. Støtter vel også kabellengder på ganske mange titalls meter. Kan fint kobles direkte mellom PC´er og servere om alt er stasjonært. Switcher derimot blir noe annet.... Man kan også få tak i utgåtte dual og quad ethernet kort og bundle porter. Siste alternativ er å gå for 10 Gbit kort og koble disse direkte sammen uten switching. Det er dog ikke all verdens kabel lengde på kobber på 10 Gbit. Dessuten er kablene ganske feite og stive.... Problemet med å koble alt sammen direkte er at du må styre rutingen. Ikke helt trivielt. Å bundle GigE gir ingen nevneverdig ytelsesforbedring for filoverføring/backup til én og samme server, prøv selv. Det gir en effekt på serveren når den håndterer flere GigE klienter samtidig. Og det kan selvsagt gi en effekt om klienten overfører til/fra flere servere samtidig. Ikke et helt vanlig hjemme-scenarie. Det er flere flaskehalser enn båndbredden. Lenke til kommentar
j-- Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Om man sitter og setter opp sine egne servere og PC´er og trenger brutalt overføringshastighet og kan koble alt direkte kan rett og slett utgåtte fiberkort og fiberkabler være en gode idé. FC utstyr på 4-8 Gbit er det mange bedrifter som kaster. Støtter vel også kabellengder på ganske mange titalls meter. Kan fint kobles direkte mellom PC´er og servere om alt er stasjonært. Switcher derimot blir noe annet.... Man kan også få tak i utgåtte dual og quad ethernet kort og bundle porter. Siste alternativ er å gå for 10 Gbit kort og koble disse direkte sammen uten switching. Det er dog ikke all verdens kabel lengde på kobber på 10 Gbit. Dessuten er kablene ganske feite og stive.... Problemet med å koble alt sammen direkte er at du må styre rutingen. Ikke helt trivielt. Å bundle GigE gir ingen nevneverdig ytelsesforbedring for filoverføring/backup til én og samme server, prøv selv. Det gir en effekt på serveren når den håndterer flere GigE klienter samtidig. Og det kan selvsagt gi en effekt om klienten overfører til/fra flere servere samtidig. Ikke et helt vanlig hjemme-scenarie. Det er flere flaskehalser enn båndbredden. Det spørs da helt på protokoller og hva som utgjør hashen som fordeler trafikken på linkene. Utstyret jeg jobber mest med hasher på flere verdier i framene/IP-pakkene, og fordeler trafikken over linkene. Så en enkelt flow vil ikke gå over 1Gbit/s, men to flows der hashene mappes til hver sin fysiske link vil få 1Gbit/s hver (unidirectional). Lenke til kommentar
Nizzen Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 (endret) Asus er også ute med en billig 10GB lan switch: Asus XG-U2008. Koster ca 250$, altså ganske spiselig for de fleste som vil ha 10Gbit lan imellom 2 maskiner. http://www.newegg.com/Product/Product.aspx?Item=N82E16833320323 Denne har dog bare 2 stk 10Gbit rj45 porter og resten 1Gbit porter. Akkurat passe for hjemmenettverk. Passer veldig bra for meg også, fordi jeg har 10Gbit lan imellom hovedpc og hovedserver. Endret 18. oktober 2016 av Nizzen Lenke til kommentar
Nizzen Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Intel OEM Ethernet Network Adapter X540-T1 Single Port RJ45 10Gb PCI Express x8 NEW DXE-820T Dual Port 10GBASE-T RJ45 PCI Express Adapter 10Gigabit Ethernet Intel 10G Dual Port RJ45 NIC Desktop PCIe Network LAN Adapter Card 10Gbe Fantes en til som jeg ikke husker navnet på farten. Verste er det finnes kun asrock med 10 gigabit hovedkort sokkel 2011-3. Her finnes det 2.5 gigabit switch: Managed Industrial 2.5 Gigabit Fiber Optic Ethernet Switch with 4-SFP slots and 8-UTP Ports Asus har også fått hovedkort med 10GB lan. Asus x99 ws 10GB. Jeg bruker Asrock sitt x99 ws 10GB hovedkort og en Thecus 10Gbit rj45 adapter i den andre pc'en Lenke til kommentar
Mazeking Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Om man sitter og setter opp sine egne servere og PC´er og trenger brutalt overføringshastighet og kan koble alt direkte kan rett og slett utgåtte fiberkort og fiberkabler være en gode idé. FC utstyr på 4-8 Gbit er det mange bedrifter som kaster. Støtter vel også kabellengder på ganske mange titalls meter. Kan fint kobles direkte mellom PC´er og servere om alt er stasjonært. Switcher derimot blir noe annet.... Man kan også få tak i utgåtte dual og quad ethernet kort og bundle porter. Siste alternativ er å gå for 10 Gbit kort og koble disse direkte sammen uten switching. Det er dog ikke all verdens kabel lengde på kobber på 10 Gbit. Dessuten er kablene ganske feite og stive.... Problemet med å koble alt sammen direkte er at du må styre rutingen. Ikke helt trivielt. Å bundle GigE gir ingen nevneverdig ytelsesforbedring for filoverføring/backup til én og samme server, prøv selv. Det gir en effekt på serveren når den håndterer flere GigE klienter samtidig. Og det kan selvsagt gi en effekt om klienten overfører til/fra flere servere samtidig. Ikke et helt vanlig hjemme-scenarie. Det er flere flaskehalser enn båndbredden. Det spørs da helt på protokoller og hva som utgjør hashen som fordeler trafikken på linkene. Utstyret jeg jobber mest med hasher på flere verdier i framene/IP-pakkene, og fordeler trafikken over linkene. Så en enkelt flow vil ikke gå over 1Gbit/s, men to flows der hashene mappes til hver sin fysiske link vil få 1Gbit/s hver (unidirectional). Setter man opp to VMware servere med LACP på så får man jo utnyttet hastigheten rimelig bra da.... Evt freenas med LACP Lenke til kommentar
Nizzen Skrevet 18. oktober 2016 Del Skrevet 18. oktober 2016 Om man sitter og setter opp sine egne servere og PC´er og trenger brutalt overføringshastighet og kan koble alt direkte kan rett og slett utgåtte fiberkort og fiberkabler være en gode idé. FC utstyr på 4-8 Gbit er det mange bedrifter som kaster. Støtter vel også kabellengder på ganske mange titalls meter. Kan fint kobles direkte mellom PC´er og servere om alt er stasjonært. Switcher derimot blir noe annet.... Man kan også få tak i utgåtte dual og quad ethernet kort og bundle porter. Siste alternativ er å gå for 10 Gbit kort og koble disse direkte sammen uten switching. Det er dog ikke all verdens kabel lengde på kobber på 10 Gbit. Dessuten er kablene ganske feite og stive.... Problemet med å koble alt sammen direkte er at du må styre rutingen. Ikke helt trivielt. Å bundle GigE gir ingen nevneverdig ytelsesforbedring for filoverføring/backup til én og samme server, prøv selv. Det gir en effekt på serveren når den håndterer flere GigE klienter samtidig. Og det kan selvsagt gi en effekt om klienten overfører til/fra flere servere samtidig. Ikke et helt vanlig hjemme-scenarie. Det er flere flaskehalser enn båndbredden. Det spørs da helt på protokoller og hva som utgjør hashen som fordeler trafikken på linkene. Utstyret jeg jobber mest med hasher på flere verdier i framene/IP-pakkene, og fordeler trafikken over linkene. Så en enkelt flow vil ikke gå over 1Gbit/s, men to flows der hashene mappes til hver sin fysiske link vil få 1Gbit/s hver (unidirectional). Setter man opp to VMware servere med LACP på så får man jo utnyttet hastigheten rimelig bra da.... Evt freenas med LACP Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender Lenke til kommentar
Gjest Slettet-OvFPdyiZ Skrevet 19. oktober 2016 Del Skrevet 19. oktober 2016 Mitt spørsmål er, hvordan står det til med innmaten i disse? En har jo allerede det problemet på billige gigabitsvitsjer at joda, hver enkelt port er gigabit, men så er switching fabric for veikt til å kunne støtte det. Er en heldig er det i stand til kanskje 10gbit throughput, på de rimeligste er en ganske langt ned mot 1gbit. Om du tar en god enterprise-svitsj som f.eks Cisco 2960X, en mye brukt kantsvitsj for bedrifter som kjøper nyt i dag, er innmaten i stand til 216gbit, for å kunne støtte 48 porter i fullduplex pluss uplink-porter og stackingmoduler. Det er teoretisk mulig å makse ut svitsjen, men da skal du som sagt ha maksimal dataoverføring mellom samtlige punkt samtidig. (men dette er da også grunnen til at en 2960X-svitsj koster betraktelig mer enn 10gbit-svitsjen som omtales i artikkelen her). Som kantsvitsj i en bedrift ville jeg foretrukket en god gigabit-svitsj fremfor en billig 10gigabit. Om klientene dine trenger å kjøre konstant last over 1gbit er det på tide å revurdere arkitekturen litt. Da ville jeg flyttet de klientene over på distribusjonssvitsjer eller brukt en SFP+modul for kobber. Det eneste en "normal" bedrift potensielt trenger mer enn 1gbit til i kant per i dag er for å fore trådløse aksesspunkt, da en enkelt gigabit-kobling kan makses ut av et AC wave 2-aksesspunkt (Wave 2 har en PHY rate på opptil 3,5gbit, men siden wifi er halvduplex gir det en rå båndbredde på 1,75gbit, som en fint leverer til aksesspunktet med doble gigabit-lenker. Den endelige IEEE-spec'en på AC er PHY rate på 6,9gbit, så da trenger man multi-GbE kobling frem til aksesspunktene). Hva så med futureproofing? Vel, før 10GbE tar av for alvor er alt du måtte kjøpe av svitsjer per i dag modent for utskifting likevel. Så, glem kjempebillig 10GbE, kjøp heller skikkelig GbE inntil videre. Om du virkelig har behovet for 10GbE i aksess har du allerede så syk hardware på gang ellers at du kan rive i på en skikkelig 10GbE-svitsj. Lenke til kommentar
Steinar Beider Skrevet 19. oktober 2016 Del Skrevet 19. oktober 2016 Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender Jaha? Kan du forklare hvordan det skal settes opp? For ytelse har jeg nok av: SSD RAID 0 i begge ender av dual 10Gb. Diskene alene klarer å levere nok til å fylle en 10Gb kanal, samme gjør PCIe-kanalene. Men i praksis er de ikke engang i nærheten av å få til dette når vi snakker filoverføring fra én klient. Det stopper på rundt 200 MB/s, altså ca. 1,6 Gb/s. Og tro meg, jeg har tunet og tweeket i timesvis, det er så optimalt som det nok er mulig å få det. Problemet er, i følge en masse folk som har peiling, at nettverksimplementasjonen i Windows ikke klarer å levere mer på én sesjon. Skal forsøke med Linux en dag jeg har tid, men erfarings sier meg at det neppe kommer til å utgjøre noen betydelig forskjell. Lenke til kommentar
ATWindsor Skrevet 19. oktober 2016 Del Skrevet 19. oktober 2016 Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender Jaha? Kan du forklare hvordan det skal settes opp? For ytelse har jeg nok av: SSD RAID 0 i begge ender av dual 10Gb. Diskene alene klarer å levere nok til å fylle en 10Gb kanal, samme gjør PCIe-kanalene. Men i praksis er de ikke engang i nærheten av å få til dette når vi snakker filoverføring fra én klient. Det stopper på rundt 200 MB/s, altså ca. 1,6 Gb/s. Og tro meg, jeg har tunet og tweeket i timesvis, det er så optimalt som det nok er mulig å få det. Problemet er, i følge en masse folk som har peiling, at nettverksimplementasjonen i Windows ikke klarer å levere mer på én sesjon. Skal forsøke med Linux en dag jeg har tid, men erfarings sier meg at det neppe kommer til å utgjøre noen betydelig forskjell. Prøv følgende råd: http://www.anandtech.com/comments/8781/asrock-x99-ws-e-10g-motherboard-review-dual-10gbaset-for-prosumers/433021 AtW Lenke til kommentar
Steinar Beider Skrevet 19. oktober 2016 Del Skrevet 19. oktober 2016 Setter man opp to VMware servere med LACP på så får man jo utnyttet hastigheten rimelig bra da.... Evt freenas med LACP LACP gjør absolutt ingen forskjell. Jeg kjører LACP både på 1Gb/s kanalene (der har det en viss effekt), og på 10Gb/s. På 10Gb har det overhodet ingen effekt, siden den ikke engang klarer å utnytte så mye som 20% av den ene kanalen. I stedet har jeg fiklet med iSCSI og Multi-path IO (MPIO), det gir noe. Da har man to sesjoner per iSCSI target, og disse kjører på hver sin 10Gb link. I teorien. I praksis er overhead stor på protokollnivå, så effekten blir liten. Skal du utnytte 10Gb må du ha flere klienter mot én server. Lenke til kommentar
Steinar Beider Skrevet 19. oktober 2016 Del Skrevet 19. oktober 2016 Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender Jaha? Kan du forklare hvordan det skal settes opp? For ytelse har jeg nok av: SSD RAID 0 i begge ender av dual 10Gb. Diskene alene klarer å levere nok til å fylle en 10Gb kanal, samme gjør PCIe-kanalene. Men i praksis er de ikke engang i nærheten av å få til dette når vi snakker filoverføring fra én klient. Det stopper på rundt 200 MB/s, altså ca. 1,6 Gb/s. Og tro meg, jeg har tunet og tweeket i timesvis, det er så optimalt som det nok er mulig å få det. Problemet er, i følge en masse folk som har peiling, at nettverksimplementasjonen i Windows ikke klarer å levere mer på én sesjon. Skal forsøke med Linux en dag jeg har tid, men erfarings sier meg at det neppe kommer til å utgjøre noen betydelig forskjell. Prøv følgende råd: http://www.anandtech.com/comments/8781/asrock-x99-ws-e-10g-motherboard-review-dual-10gbaset-for-prosumers/433021 AtW Takker, skal forsøke! Lenke til kommentar
Nizzen Skrevet 19. oktober 2016 Del Skrevet 19. oktober 2016 Det er skjeldent noen kjører konstant last. Det er min påstand for 99% av kundegruppene til disse rimelige 10GBit switchene Lenke til kommentar
Nizzen Skrevet 19. oktober 2016 Del Skrevet 19. oktober 2016 Ingen problem å utnytte 10Gbit hvis man har nok hastighet på raid eller ssd'er i begge ender Jaha? Kan du forklare hvordan det skal settes opp? For ytelse har jeg nok av: SSD RAID 0 i begge ender av dual 10Gb. Diskene alene klarer å levere nok til å fylle en 10Gb kanal, samme gjør PCIe-kanalene. Men i praksis er de ikke engang i nærheten av å få til dette når vi snakker filoverføring fra én klient. Det stopper på rundt 200 MB/s, altså ca. 1,6 Gb/s. Og tro meg, jeg har tunet og tweeket i timesvis, det er så optimalt som det nok er mulig å få det. Problemet er, i følge en masse folk som har peiling, at nettverksimplementasjonen i Windows ikke klarer å levere mer på én sesjon. Skal forsøke med Linux en dag jeg har tid, men erfarings sier meg at det neppe kommer til å utgjøre noen betydelig forskjell. Jeg stillte ikkje på noe. Det bare funka på full pubb med en gang. Like bra fra win 10 til win 8.1 som win 10 til win 10. Ved overføring av mkv filer var jeg oppe i 1.15GB/s eller.no Lenke til kommentar
siDDis Skrevet 29. oktober 2016 Del Skrevet 29. oktober 2016 Kobber støtter 100 meter på 10gig, så lengden er god. AtW Vell, nå som flere har fått prøvd seg på 10GBase-T så har det vist seg at det er store kompatibilitetsproblemer(1, 2) . Selv om kabelen er CAT6A, så er det utrlolig mange andre faktorer som sørger for at det ikke fungerer, selv det er en flunkende ny CAT6a kabel eller flunkende nytt Intel nettverkskort. Jo kortere lengde, jo større sannsynlighet er det at 10GBase-T vil fungere. Men nå driver jo alle bedrifter med 25G linker, eller 50G eller 100G over QSFP28 PS, Windows har en elendig nettverkimplementasjon og sliter fort når hastigheten blir over 4G, tror Windows Server 2016 skal komme med en vesentlig forbedring her. Uansett om du ønsker 10G hastigheter på Windows så må du bruke RDMA. Lenke til kommentar
ATWindsor Skrevet 30. oktober 2016 Del Skrevet 30. oktober 2016 Kobber støtter 100 meter på 10gig, så lengden er god. AtW Vell, nå som flere har fått prøvd seg på 10GBase-T så har det vist seg at det er store kompatibilitetsproblemer(1, 2) . Selv om kabelen er CAT6A, så er det utrlolig mange andre faktorer som sørger for at det ikke fungerer, selv det er en flunkende ny CAT6a kabel eller flunkende nytt Intel nettverkskort. Jo kortere lengde, jo større sannsynlighet er det at 10GBase-T vil fungere. Men nå driver jo alle bedrifter med 25G linker, eller 50G eller 100G over QSFP28 PS, Windows har en elendig nettverkimplementasjon og sliter fort når hastigheten blir over 4G, tror Windows Server 2016 skal komme med en vesentlig forbedring her. Uansett om du ønsker 10G hastigheter på Windows så må du bruke RDMA. Ser ut som det hovedsaklig er snakk om folk som ikke har utstyr som er i henhold til spec. Jo kortere lengde jo større sannsynlighet, men det gjelder alle hastigheter, det er ikke noe spesielt med 10G (utover at det nok er mer sannsynlig at man opererer nærmere max-spec på kabelen. Nei, alle bedrifter bruker ikke det til å dekke sine nettverksbehov. AtW Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå