Gå til innhold

Media PC/Lagringserver RAID kort, GPU, OS?


Rudde

Anbefalte innlegg

Har sett på litt forskjellige type hovedkort, problemet mitt er et i5 / i7 cpuer ikke støtter ECC Minne som jeg har forstått er veldig fordelaktig for en filserver. Da står valget mellom en AMD løsning eller Intel Xenon som støtter ECC. Hvorav jeg føler meg mest trygg på Intel, spesiellt med tanke på ESXi passthrough.

 

Kjører endel virtualiserte maskiner i dag. Og det er som du skriver alltid minnet som blir en begresning. Tror nok jeg kommer til å få behov for mer en 24Gb minne på sikt. En kraftig maskin som dette vil uansett kunne gjøre veldig mye, og kjipt hvis minne skulle være den begrensende faktoren.

 

Etter litt lesing på nettet skal det være mulig med Virtuell HTPC med passthroug skjermkort. Men dette er jo ikke støttet fra VMvware ESXi offesielt, så her virker det som en bare må prøve seg litt frem. Noen grafikkkort virker, mens andre gjør ikke. En annen ting du må være obs på er at alt minne til en Virtuell Maskin må være "reservert"(ikke deles med andre Virtuelle maskiner) når du kjører passthroug.

 

http://communities.vmware.com/message/1754453#1754453

 

 

Ellers har jeg satt mitt prosjektet litt på vent, da jeg nylig har kjøpt meg leilighet med tilhørende utgiftsposter :)

Lenke til kommentar
Videoannonse
Annonse

Alltid kjekt med mye minne når du skal kjøre en rekke virtuelle servere. Har dog bare 8GB i min nåværende vmware server, men det er en anelse for lite, og når du da legger på litt for en zfs filserver med muligheter for dedup, samt evt htpc i tillegg, så blir det veldig raskt 24GB.

Lenke til kommentar

Har sett på litt forskjellige type hovedkort, problemet mitt er et i5 / i7 cpuer ikke støtter ECC Minne som jeg har forstått er veldig fordelaktig for en filserver. Da står valget mellom en AMD løsning eller Intel Xenon som støtter ECC. Hvorav jeg føler meg mest trygg på Intel, spesiellt med tanke på ESXi passthrough.

 

Kjører endel virtualiserte maskiner i dag. Og det er som du skriver alltid minnet som blir en begresning. Tror nok jeg kommer til å få behov for mer en 24Gb minne på sikt. En kraftig maskin som dette vil uansett kunne gjøre veldig mye, og kjipt hvis minne skulle være den begrensende faktoren.

 

Etter litt lesing på nettet skal det være mulig med Virtuell HTPC med passthroug skjermkort. Men dette er jo ikke støttet fra VMvware ESXi offesielt, så her virker det som en bare må prøve seg litt frem. Noen grafikkkort virker, mens andre gjør ikke. En annen ting du må være obs på er at alt minne til en Virtuell Maskin må være "reservert"(ikke deles med andre Virtuelle maskiner) når du kjører passthroug.

 

http://communities.vmware.com/message/1754453#1754453

 

 

Ellers har jeg satt mitt prosjektet litt på vent, da jeg nylig har kjøpt meg leilighet med tilhørende utgiftsposter :)

 

 

Jeg ser argumentet for ECC, og det er litt bittert å velge AMD når man da går glipp av nehalem og svært velfungerende hyperthreading, selv om man gjerne får et par cores ekstra til en billig penge.

 

Irriterende at man ikke både kan få en perfekt og billig løsning ^^

 

Har ny leilighet og utgifter selv i sommer, så får se om det evt blir worklog prosjekt til høsten.

Lenke til kommentar

Men kva for nokre krav har du for å ha masse virtuelle maskiner? Trenger du verkeleg ein hauge med virtuelle maskiner som køyrer forskjellig kernel? Kva med å bruke jails/zones heller?

 

ZFS med dedup trenger ram, men du kan også hjelpe på med å bruke ein SSD disk til cache og ha 4K block sizes istadenfor 512.

Lenke til kommentar

Men kva for nokre krav har du for å ha masse virtuelle maskiner? Trenger du verkeleg ein hauge med virtuelle maskiner som køyrer forskjellig kernel? Kva med å bruke jails/zones heller?

 

ZFS med dedup trenger ram, men du kan også hjelpe på med å bruke ein SSD disk til cache og ha 4K block sizes istadenfor 512.

 

Mange av mine "lokale" tjenester kunne jeg helt klart konsolidert, og dermed spart minne, men det er ofte langt mer praktisk/behagelig med en server per tjeneste iforhold til sikkerhet og administrasjon. Rett og slett en kostnad jeg er villig til å ta.

 

I tillegg er jeg en av de (mange) hvor jobb og hobby overlapper, så jeg kjører en god del enterprise software i test/lab.

Lenke til kommentar

Hva er den beste filoverføringsprotokollen jeg kan bruke slik at jeg kan lage snarvei til den i windows maskina mi og få rask tilgang som takler gigabit

 

Jeg får iallefall 99.3#% av gigabit nettverket når jeg kopierer fra serveren som har ubuntu (Samba) til windows 7. Bedre skal det godt gjøres å få til med gigabit nettverk. Altså jeg kopierer med over 120MB/s ;)

 

 

 

 

 

 

Lenke til kommentar

Men kva for nokre krav har du for å ha masse virtuelle maskiner? Trenger du verkeleg ein hauge med virtuelle maskiner som køyrer forskjellig kernel? Kva med å bruke jails/zones heller?

 

ZFS med dedup trenger ram, men du kan også hjelpe på med å bruke ein SSD disk til cache og ha 4K block sizes istadenfor 512.

 

Mange av mine "lokale" tjenester kunne jeg helt klart konsolidert, og dermed spart minne, men det er ofte langt mer praktisk/behagelig med en server per tjeneste iforhold til sikkerhet og administrasjon. Rett og slett en kostnad jeg er villig til å ta.

 

I tillegg er jeg en av de (mange) hvor jobb og hobby overlapper, så jeg kjører en god del enterprise software i test/lab.

 

Det er dette jeg også ser på som så utrolig greit med virtualisering, du står veldig fritt siden du bare kan opprette virtuelle maskiner uten at de forstyrrer eksisterende driftsmiljø.

 

Jeg ser på å gi ZFS serveren min mest mulig minne. Da ZFS bruker dette som read cache og du vil få veldig høy leseytelse på virtuelle maskiner som benytter seg av ZFS storage poolen. Ettersom dette ligger på fysisk samme maskin vil jeg ikke ha nettverket som flaskehals. Sammenlignet mot SSD vil dette være raskere read cache, men med lavere kapasitet. Men antar 20Gb read cache skal gi en gaske god løft med tanke på operativsystemer og slik mountet over iscsi lokalt over ESXi :)

 

Blir muligens en SSD for å supplementere read cache i fremtiden, men så var det dette med pris da :) ZIL(Write cache) er også spennende, men har ikke funnet noen gode SSD alternativer til dette enda. Erfainger?

Lenke til kommentar

Eg har fleire maskiner her med 2GB 4GB og 6GB.

ZFS bruker alt minne som er tilgjengeleg på alle. MEN, ytelsen for vanleg heimebruk er det ikkje forskjell på. Derimot skal du ha eit SAN med 20++ volumer som eksporteres så kan det vere verdifullt med meir minne. Men ein rask SSD kan gjere minst like stor nytte.

Lenke til kommentar

Men det dykk "trenger" er jo akkurat det jails/zones gjer. Du får ein "virtuell" maskin.

Om ein skal ha verkeleg mykje aktivitet om meir enn 4GB ram skal lønne seg for ZFS.

 

Bruker litt zones i Solaris, i Linux har jeg dog bare litt erfaring med chroot, men blir ikke like fleksibelt.

Lenke til kommentar
  • 2 uker senere...

De siste 7 HDD'ene er bestilt fra netshop og jeg håper jeg får de neste uke.

 

Men jeg bli helt kvalm av hvor elendig jeg er i FreeBSD, det er jo dritvanskelig og få det til å fungere som jeg vil det skal fungere og jeg har failet og formatert så mange ganger nå at jeg blir dårlig :(

Lenke til kommentar

Har rota litt rundt og fikk til ZRAID1 med 3 disker og samba, men jeg vet jo faen ikke hva slags komprimerings settings jeg har og jeg aner ikke hvordan jeg gjør noe mer, som å få opp VM's som var en faktor i denne serveren.. Og når jeg satt opp ZRAID 1 skrev jeg ikke ZRAID1 noe sted jeg skav bare zpool og raidz hvordan får jeg raidz2?

 

og LAG, jeg syns det var komplisert og få opp en nettverkskabel...

Endret av Rudde93
Lenke til kommentar

Rudde93, det er vell kanskje betre å forklare kva du ynskje å gjere og spør om råd korleis ein kan utføre det. Standard FreeBSD installasjon er jo eigentleg ganske rett fram, så lenge du ikkje prøver deg på noko avansert som garantert vil gi deg trøbbel.

 

Raidz2 får du med denne kommandoen:

 

zfs create tank raidz2 disk1 disk2 disk3 disk4

Lenke til kommentar

Har rota litt rundt og fikk til ZRAID1 med 3 disker og samba, men jeg vet jo faen ikke hva slags komprimerings settings jeg har

Da er det bra at du kan finne ut mye ved å lese man-sidene. 'man zpool' og 'man zfs' i første omgang.

 

og jeg aner ikke hvordan jeg gjør noe mer, som å få opp VM's som var en faktor i denne serveren.

Det kommer veldig an på hvilken virtualiserings-software du bruker. Dersom du bruker VirtualBox, så kan du opprette VM'er fra gui'et, eller ved hjelp av VBoxManage kommandoen.

Lenke til kommentar

Jeg "greier" nå og sette opp ett zpool (klipp og lim), jeg skal fortsatt studere både zfs og zpool man nøyere.

 

Når det kommer til komprimering, altså målet mitt er å gjøre LAG på 4x 1 Gbit altså 4 Gbit ~ 500 MB/sek, altså jeg til ikke ha akuratt med 500 MB/sek over nettverk men det hadde vært gøy med ~ 300 MB/sek på LAN's eller plasser hvor jeg deler stuff med mange. Jeg har en greit kraftig prosessor, intel hexa på 3.2 GHz, så det jeg lurer på er hvilken komprimering settings jeg skal sette zpoolet på?

 

Jeg prøvde å sette opp virtualbox i shell (fordi det er det eneste gratise jeg vet om til freebsd) først fikk jeg error om at jeg kjørte x64 freebsd så fikk jeg fikset det og da fikk jeg melding helt på slutten at alle packer ikke var installert og jeg fikk error uten noen feilmelding... Og det fungerte ikke allikevel. Skal prøve det gjennom gnome nå.

Lenke til kommentar

Når det kommer til komprimering, altså målet mitt er å gjøre LAG på 4x 1 Gbit altså 4 Gbit ~ 500 MB/sek, altså jeg til ikke ha akuratt med 500 MB/sek over nettverk men det hadde vært gøy med ~ 300 MB/sek på LAN's eller plasser hvor jeg deler stuff med mange. Jeg har en greit kraftig prosessor, intel hexa på 3.2 GHz, så det jeg lurer på er hvilken komprimering settings jeg skal sette zpoolet på?

 

Å, er det lagg(4) du mener? Tok sin tid før det gikk opp et lys for meg...

Hva er det som gjør at du tror at komprimering på filsystenet (zfs) automatisk vil føre til bedre ytelse over nettverket?

Her er det mye annet som spiller inn.

Eksempler: hvilket nettverksfilsystem bruker du for å share ut data?

Dersom det er Samba, så må du se på hvordan man tuner FreeBSD for Samba.

 

PS. Disse spørsmålene blir veldig FreeBSD-spesifikke, kanskje du skulle opprette en egen tråd om dette i BSD-forumet?

 

 

Jeg prøvde å sette opp virtualbox i shell (fordi det er det eneste gratise jeg vet om til freebsd) først fikk jeg error om at jeg kjørte x64 freebsd så fikk jeg fikset det og da fikk jeg melding helt på slutten at alle packer ikke var installert og jeg fikk error uten noen feilmelding... Og det fungerte ikke allikevel. Skal prøve det gjennom gnome nå.

Hvordan har du installert VirtualBox da? Jeg installerte fra ports, maskinen kjører FreeBSD/amd64 og VirtualBox funker problemfritt her.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...