Kamerat Skrevet 2. oktober 2011 Del Skrevet 2. oktober 2011 Enda kontrolleren er integrert i hovedkortet så er den kobla på PCIe-"bussen". Hvis du ser på det første bildet av vSphere jeg posta kan du se at det står "Edit..." helt til høyre i bildet. Der kan du trykke for å konfigurere enhetene som skal kjøre DirectPath I/O. Lenke til kommentar
Rudde Skrevet 3. oktober 2011 Forfatter Del Skrevet 3. oktober 2011 (endret) takk Fikk det til å fungere Men lurer på noe, f.eks. hvor mye ram skal jeg dedikere til solaris som kun skal kjøre filsystemet mitt? Har gitt det 6 GB nå, og jeg ga den 5 kjerner Og jeg fant en "unlimited" communication between guest OS. Hvordan får jeg ett OS til å automatisk boote etter en restart av esxi? Og på din vDisk hva er forskjellen på Thick Provision Lazy Zeroed og Thin Provision? Jeg endte med Thin Provision på solaris fordi jeg fikk en vDrive error når jeg hadde Thick Provision Lazy Zeroed Så jeg lurer på hva forskjellen er? Endret 3. oktober 2011 av Rudde93 Lenke til kommentar
Kamerat Skrevet 3. oktober 2011 Del Skrevet 3. oktober 2011 takk Fikk det til å fungere Men lurer på noe, f.eks. hvor mye ram skal jeg dedikere til solaris som kun skal kjøre filsystemet mitt? Har gitt det 6 GB nå, og jeg ga den 5 kjerner Og jeg fant en "unlimited" communication between guest OS. Har bare hørt at ZFS er glad i RAM, mer veit jeg ikke. Hvordan får jeg ett OS til å automatisk boote etter en restart av esxi? Hvis du ser på første bildet jeg posta igjen vil du til venstre se et avsnitt som heter "Software". Under "Software" finner du "Virtual Machine Startup/Shutdown" hvor du kan sette opp automatisk oppstart av gjestene. Og på din vDisk hva er forskjellen på Thick Provision Lazy Zeroed og Thin Provision? Jeg endte med Thin Provision på solaris fordi jeg fikk en vDrive error når jeg hadde Thick Provision Lazy Zeroed Så jeg lurer på hva forskjellen er? Her må du nok Google litt, jeg er bare en fersking på ESXi. Lenke til kommentar
Sokkalf™ Skrevet 3. oktober 2011 Del Skrevet 3. oktober 2011 Har nettopp gjort en "impulsbestilling" av hovedkort, CPU og RAM, med nettopp virtualisering av filserver med ZFS i tankene. Tenker jeg skal prøve Linux med KVM, og kanskje ESXi, muligens Xen også som hypervisorer. Fikk plukket opp en AMD 6-kjerner, hovedkort som støtter IOMMU (AMDs variant av VT-d) og 16GB RAM for 3000kr.. så det er jo ikke akkurat noe jeg blir blakk av.. Diskkontroller og nettverkskort har jeg fra før. Kommer tilbake i denne tråden med erfaringer når jeg får sakene.. Lenke til kommentar
Kamerat Skrevet 21. oktober 2011 Del Skrevet 21. oktober 2011 Kommer tilbake i denne tråden med erfaringer når jeg får sakene.. Fått delene enda? Vurderte selv Phenom II X6 til ESXi-server, men endte opp med Xeon E5606 (firekjernes, 2,13GHz, 32nm, 80W MAX TDP, uten HT) på et Gigabyte GA-X58A-UD3R 2.0 hovedkort (valgte dette siden jeg fikk det for 400 og at det hadde fire PCIe X16-kortplasser) med 24GB ECC-minne. Hadde på forhånd testa ESXi på hovedpcen min som også har X58-chipsett, så det virka som en trygg vei å gå. Valget av hovedkort var litt dumt da det ikke støtta VT-d uten videre. Tok kontakt med Gigabyte og fikk tilsendt en BIOS med VT-d-støtte. Prosjektet mitt har ligget dødt noen uker, håper å komme i gang igjen snart. Har tenkt å kjøre filserver på den og muligens en Windows gjest til HTPC- og surfe-bruk. Har hittil bare installert to Windows 7 gjester for å teste DirectPath I/O med skjermkort, lydkort, diskkontrollere og USB-porter. Får sikkert noen flere ideer etterhvert på ting jeg kan sette opp på den. Har en IBM M1015 SAS-kontroller flasha til IT-mode jeg tenkte å bruke til filserver med åtte 2TB-disker i RAID-Z2. Lenke til kommentar
Sokkalf™ Skrevet 21. oktober 2011 Del Skrevet 21. oktober 2011 Ja, har fått sakene. Testet med KVM, men der fikk jeg ikke til passthrough av diskkontrolleren. Nettverkskort funket fint, så IOMMU fungerer ihvertfall. ESXi fikk jeg ikke til å boote, men har i ettertid funnet ut hvorfor. Ikke fått testet mer enda, men kommer nok til å bruke litt tid på det i helgen. Har egentlig mest lyst til å bruke KVM, siden jeg da kan bruke linux software raid på hosten, samt at jeg får støtte for Realtek-nettverkskortet på hovedkortet osv.. men får jeg ikke diskkontrolleren til å virke, så blir det nok ESXi. Har forsåvidt en ny diskkontroller nå, samme som deg, en M1015 i IT-mode. Den jeg prøvde med først var en LSI 9211-8i. De er såpass like at hvis den første ikke virket under KVM, så har jeg ikke de høye forhåpninger for den andre heller.. Lenke til kommentar
siDDis Skrevet 21. oktober 2011 Del Skrevet 21. oktober 2011 Om du absolutt har lyst på ZFS og Linux så kvifor ikkje bruka zfsonlinux prosjektet? Det fungerer jo ganske bra om ein driter i deduplisering og compression. Lenke til kommentar
Sokkalf™ Skrevet 21. oktober 2011 Del Skrevet 21. oktober 2011 Tja, hvis jeg ikke får det jeg egentlig ville til å funke, så er det jo en mulighet, men jeg har uansett lyst til å skille filserver, router, test, lek og moro litt mer fra hverandre. Alt er i én boks, og det er litt rotete, for ikke å snakke om at sikkerheten kunne vært litt bedre. Med f.eks OpenIndiana eller Solaris Express får jeg også lett tilgang til ting som iSCSI - så det er førstevalg, ihvertfall. Bruker FreeBSD nå, og det er egentlig ikke helt holdbart. Ingen gode virtualiseringsløsninger (for andre OS), og ZFS-implementasjonen har litt å hente (kræsjet iblant med 8GB RAM, men ser ut til at den har sluttet med det nå som jeg har 16GB). I tillegg er det mye mer tungvindt å installere ting og holde det oppdatert med ports enn med pakkesystemet i en linux-distro. Lenke til kommentar
siDDis Skrevet 21. oktober 2011 Del Skrevet 21. oktober 2011 (endret) Eg fatter ikkje at du greier å kræsje ZFS så mykje på FreeBSDen din, eg har 3 forskjellige FreeBSD maskiner nå med ZFS. Ein med 6GB ram og 2 med 4GB ram. 2 av dei køyrer FreeBSD-8-STABLE frå slutten av september og den siste køyre FreeBSD-9 STABLE frå igår Eg har enda til gode av å ha fått ein kernel panic dei siste 6 månedane, og då skyldes det ein dårleg sata kabel. Og det er mykje aktivitet på dei diskane, snapshots kvar 15 min som blir replikert også hoste dei fleire virtualbox maskiner som eg brukar til utvikling pluss vanleg lagring av privat data Eg skjønner godt at du ynskje å separere fleire av dei større tenestane. Men du kan jo fint bruke FreeBSD og jails til dei oppgåvene. Eg har jo ein eigen Linux server til Java ting, også brannmur/ruteren er også ein eigen maskin. Snort krevje jo sitt av hardware Endret 21. oktober 2011 av siDDis Lenke til kommentar
endrebjo Skrevet 23. oktober 2011 Del Skrevet 23. oktober 2011 (endret) Snort krevje jo sitt av hardware Ca. hvor mye maskinvare vil Snort kreve på en 30/30-linje med mange connections? Snakker vi Atom, Athlon, C2D eller i7Q? Endret 23. oktober 2011 av endrebjo Lenke til kommentar
siDDis Skrevet 23. oktober 2011 Del Skrevet 23. oktober 2011 Eg trur Athlon skal vere nok, eg har ein Celeron 2ghz basert på core 2 teknlogien som tar 100% på 60/60. Lenke til kommentar
endrebjo Skrevet 23. oktober 2011 Del Skrevet 23. oktober 2011 Høres bra ut. Har mulighet til å få tak i enten Atom 330 eller C2D 1,86 GHz til omtrent samme pris, så da blir det C2D. C2D'en skal angivelig ligge rundt 25-30 grader idle, så forskjellen i strømforbruk kan umulig være så fryktelig stor på lav last. Lenke til kommentar
Rudde Skrevet 30. oktober 2011 Forfatter Del Skrevet 30. oktober 2011 Siden jeg ikke fikk innstalert VMware tools i solaris ble hastigheten mellom guest OS'es alt for dårlig for meg og jeg valgte derfor og gå tilbake til solaris + virtualbox men om noen vet hvordan jeg kan løse dette hadde jeg satt stor pris på det Lenke til kommentar
Sokkalf™ Skrevet 15. januar 2012 Del Skrevet 15. januar 2012 Har nettopp fått ut finger'n og testet litt mer på mitt oppsett. Host: ESXi 5 Funket egentlig ut av boksen så snart jeg fant ut at jeg måtte putte inn parameteren "formatwithmbr" på installeren. Ellers partisjonerte den disken med GPT disklabel, som nektet å boote av en eller annen grunn. Satte opp OpenIndiana som gjest, med direkte tilgang til diskkontroller (IBM M1015 med LSI-firmware i IT-modus) og et nettverkskort. Funker finfint, og hastighetene jeg får fra maskiner i nettverket er tilnærmet lik de jeg hadde før når serveren kjøre "rett på jernet". VMWare Tools lot seg installere uten problemer i OpenIndiana. I tillegg har jeg 6 andre gjester (alle linux). Lenke til kommentar
Kamerat Skrevet 16. januar 2012 Del Skrevet 16. januar 2012 Installerte også OpenIndiana på ESXi 5 for noen uker tilbake med samme SAS-kontroller og VMWare tools. Fungerer foreløpig bra, men har ikke et eget nettverkskort til OI-gjesten. Lenke til kommentar
Rudde Skrevet 29. mars 2012 Forfatter Del Skrevet 29. mars 2012 OMG, SmartOS ser helt perfekt ut! ESXi 5 løsningen jeg bruker når liker jeg ikke i det heletatt fordi jeg får mem erros (nylige) i ESXi og det er insane dårlig speed mellom guest og guest. Men zpoolet mitt er i ZFS 31 noe SmartOS ikke støtter Hva skal jeg gjør med det? Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå