Gå til innhold

BSD/UnixZFS Host OS, med støtte for virtualisering


Anbefalte innlegg

Enda kontrolleren er integrert i hovedkortet så er den kobla på PCIe-"bussen".

 

Hvis du ser på det første bildet av vSphere jeg posta kan du se at det står "Edit..." helt til høyre i bildet. Der kan du trykke for å konfigurere enhetene som skal kjøre DirectPath I/O.

Lenke til kommentar
Videoannonse
Annonse

takk :D Fikk det til å fungere :)

 

Men lurer på noe, f.eks. hvor mye ram skal jeg dedikere til solaris som kun skal kjøre filsystemet mitt? Har gitt det 6 GB nå, og jeg ga den 5 kjerner

 

Og jeg fant en "unlimited" communication between guest OS.

 

Hvordan får jeg ett OS til å automatisk boote etter en restart av esxi?

 

Og på din vDisk hva er forskjellen på Thick Provision Lazy Zeroed og Thin Provision?

 

Jeg endte med Thin Provision på solaris fordi jeg fikk en vDrive error når jeg hadde Thick Provision Lazy Zeroed

 

Så jeg lurer på hva forskjellen er?

Endret av Rudde93
Lenke til kommentar

takk :D Fikk det til å fungere :)

 

Men lurer på noe, f.eks. hvor mye ram skal jeg dedikere til solaris som kun skal kjøre filsystemet mitt? Har gitt det 6 GB nå, og jeg ga den 5 kjerner

 

Og jeg fant en "unlimited" communication between guest OS.

Har bare hørt at ZFS er glad i RAM, mer veit jeg ikke. :)

 

Hvordan får jeg ett OS til å automatisk boote etter en restart av esxi?

Hvis du ser på første bildet jeg posta igjen vil du til venstre se et avsnitt som heter "Software". Under "Software" finner du "Virtual Machine Startup/Shutdown" hvor du kan sette opp automatisk oppstart av gjestene.

 

Og på din vDisk hva er forskjellen på Thick Provision Lazy Zeroed og Thin Provision?

 

Jeg endte med Thin Provision på solaris fordi jeg fikk en vDrive error når jeg hadde Thick Provision Lazy Zeroed

 

Så jeg lurer på hva forskjellen er?

Her må du nok Google litt, jeg er bare en fersking på ESXi. :)

Lenke til kommentar

Har nettopp gjort en "impulsbestilling" av hovedkort, CPU og RAM, med nettopp virtualisering av filserver med ZFS i tankene.

 

Tenker jeg skal prøve Linux med KVM, og kanskje ESXi, muligens Xen også som hypervisorer.

 

Fikk plukket opp en AMD 6-kjerner, hovedkort som støtter IOMMU (AMDs variant av VT-d) og 16GB RAM for 3000kr.. så det er jo ikke akkurat noe jeg blir blakk av..

Diskkontroller og nettverkskort har jeg fra før.

 

Kommer tilbake i denne tråden med erfaringer når jeg får sakene..

Lenke til kommentar
  • 3 uker senere...

Kommer tilbake i denne tråden med erfaringer når jeg får sakene..

Fått delene enda? Vurderte selv Phenom II X6 til ESXi-server, men endte opp med Xeon E5606 (firekjernes, 2,13GHz, 32nm, 80W MAX TDP, uten HT) på et Gigabyte GA-X58A-UD3R 2.0 hovedkort (valgte dette siden jeg fikk det for 400 og at det hadde fire PCIe X16-kortplasser) med 24GB ECC-minne. Hadde på forhånd testa ESXi på hovedpcen min som også har X58-chipsett, så det virka som en trygg vei å gå. Valget av hovedkort var litt dumt da det ikke støtta VT-d uten videre. Tok kontakt med Gigabyte og fikk tilsendt en BIOS med VT-d-støtte.

 

Prosjektet mitt har ligget dødt noen uker, håper å komme i gang igjen snart. Har tenkt å kjøre filserver på den og muligens en Windows gjest til HTPC- og surfe-bruk. Har hittil bare installert to Windows 7 gjester for å teste DirectPath I/O med skjermkort, lydkort, diskkontrollere og USB-porter. Får sikkert noen flere ideer etterhvert på ting jeg kan sette opp på den. Har en IBM M1015 SAS-kontroller flasha til IT-mode jeg tenkte å bruke til filserver med åtte 2TB-disker i RAID-Z2.

Lenke til kommentar

Ja, har fått sakene. Testet med KVM, men der fikk jeg ikke til passthrough av diskkontrolleren. Nettverkskort funket fint, så IOMMU fungerer ihvertfall.

 

ESXi fikk jeg ikke til å boote, men har i ettertid funnet ut hvorfor. Ikke fått testet mer enda, men kommer nok til å bruke litt tid på det i helgen.

 

Har egentlig mest lyst til å bruke KVM, siden jeg da kan bruke linux software raid på hosten, samt at jeg får støtte for Realtek-nettverkskortet på hovedkortet osv.. men får jeg ikke diskkontrolleren til å virke, så blir det nok ESXi.

 

Har forsåvidt en ny diskkontroller nå, samme som deg, en M1015 i IT-mode. Den jeg prøvde med først var en LSI 9211-8i. De er såpass like at hvis den første ikke virket under KVM, så har jeg ikke de høye forhåpninger for den andre heller..

Lenke til kommentar

Tja, hvis jeg ikke får det jeg egentlig ville til å funke, så er det jo en mulighet, men jeg har uansett lyst til å skille filserver, router, test, lek og moro litt mer fra hverandre. Alt er i én boks, og det er litt rotete, for ikke å snakke om at sikkerheten kunne vært litt bedre.

 

Med f.eks OpenIndiana eller Solaris Express får jeg også lett tilgang til ting som iSCSI - så det er førstevalg, ihvertfall.

 

Bruker FreeBSD nå, og det er egentlig ikke helt holdbart. Ingen gode virtualiseringsløsninger (for andre OS), og ZFS-implementasjonen har litt å hente (kræsjet iblant med 8GB RAM, men ser ut til at den har sluttet med det nå som jeg har 16GB). I tillegg er det mye mer tungvindt å installere ting og holde det oppdatert med ports enn med pakkesystemet i en linux-distro.

Lenke til kommentar

Eg fatter ikkje at du greier å kræsje ZFS så mykje på FreeBSDen din, eg har 3 forskjellige FreeBSD maskiner nå med ZFS. Ein med 6GB ram og 2 med 4GB ram. 2 av dei køyrer FreeBSD-8-STABLE frå slutten av september og den siste køyre FreeBSD-9 STABLE frå igår :p

 

Eg har enda til gode av å ha fått ein kernel panic dei siste 6 månedane, og då skyldes det ein dårleg sata kabel. Og det er mykje aktivitet på dei diskane, snapshots kvar 15 min som blir replikert også hoste dei fleire virtualbox maskiner som eg brukar til utvikling pluss vanleg lagring av privat data :)

 

Eg skjønner godt at du ynskje å separere fleire av dei større tenestane. Men du kan jo fint bruke FreeBSD og jails til dei oppgåvene. Eg har jo ein eigen Linux server til Java ting, også brannmur/ruteren er også ein eigen maskin. Snort krevje jo sitt av hardware :p

Endret av siDDis
Lenke til kommentar

Siden jeg ikke fikk innstalert VMware tools i solaris ble hastigheten mellom guest OS'es alt for dårlig for meg og jeg valgte derfor og gå tilbake til solaris + virtualbox

 

men om noen vet hvordan jeg kan løse dette hadde jeg satt stor pris på det :D

Lenke til kommentar
  • 2 måneder senere...

Har nettopp fått ut finger'n og testet litt mer på mitt oppsett.

 

Host: ESXi 5

 

Funket egentlig ut av boksen så snart jeg fant ut at jeg måtte putte inn parameteren "formatwithmbr" på installeren. Ellers partisjonerte den disken med GPT disklabel, som nektet å boote av en eller annen grunn.

 

Satte opp OpenIndiana som gjest, med direkte tilgang til diskkontroller (IBM M1015 med LSI-firmware i IT-modus) og et nettverkskort.

 

Funker finfint, og hastighetene jeg får fra maskiner i nettverket er tilnærmet lik de jeg hadde før når serveren kjøre "rett på jernet".

 

VMWare Tools lot seg installere uten problemer i OpenIndiana.

 

I tillegg har jeg 6 andre gjester (alle linux).

Lenke til kommentar
  • 3 uker senere...
  • 1 måned senere...

OMG, SmartOS ser helt perfekt ut!

 

ESXi 5 løsningen jeg bruker når liker jeg ikke i det heletatt fordi jeg får mem erros (nylige) i ESXi og det er insane dårlig speed mellom guest og guest.

 

Men zpoolet mitt er i ZFS 31 noe SmartOS ikke støtter :( Hva skal jeg gjør med det?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...