Gå til innhold

Den frie kafeen


Anbefalte innlegg

Har kjøpt komponenter til en virtualiseringsserver (Intel server-hovedkort + Xeon), og planen var opprinnelig å kjøre VMware ESXI. Problemet her er at VMware har gjort det så utrolig tungvindt å skulle installere og drifte ESXI med gratisverktøyene, at jeg får helt angst. Klin umulig å se hva man egenlig får, før man er inne i en eller annen evaluation mode, samme hva man har valgt for å komme dit. Faktisk det verste mølet jeg har vært borti på lenge. Så har bestemt meg for å droppe VMware helt, samme hvor bra det skulle være.

Hva slags fallgruver tenker du på? Den mest åpenbare er at hvis du installerer ESXi 5.5 må du ikke finne på å oppgradere VMene til versjon 10, da VMer med versjon 10 kun kan endres med webklienten, og da trenger du et vCenter. Webklienten fungerer kun sammen med vCenter Server. Installerer du derimot ESXi 5.1 er du trygg, men alt har begrenset levetid. I alle tilfeller kan du patche ESXi, men det må gjøres manuelt (kommando), og du må boote boksen, og VMene. Igjen, velger du 5.5 er du ganske trygg så lenge du ikke oppgraderer virtuell HW til versjon 10. Du har ingen begrensning verken på CPU eller minne så lenge hovedkortet ikke har flere enn to CPU-sokler.

 

 

Ønsker å bruke en bare metal hypervisor. Hva er de praktiske forskjellene mellom f.eks Xen og KVM? Leser noen steder at Xen er mer tailored mot linux, mens KVM mer mot windows? Men at begge kan kjøre begge deler.

 

Noen som har noen erfaringer å dele? Pitfalls man burde unngå? Ytelse?

 

Heller litt mot Xen nå.

KVM er i aller høyeste grad Linux-basert. Faktisk er KVM standard virtualiseringsteknologi i Linux, med støtte i kernelen. Xen var det før, men ble byttet ut med nettopp KVM. Xen på sin side er nå tatt over av Citrix. Red Hat har bygget en virtualiseringsplattform på KVM som konkurrerer med VMware, Citrix XenServer og Microsoft Hyper-V, nemlig RHEV.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Har kjøpt komponenter til en virtualiseringsserver (Intel server-hovedkort + Xeon), og planen var opprinnelig å kjøre VMware ESXI. Problemet her er at VMware har gjort det så utrolig tungvindt å skulle installere og drifte ESXI med gratisverktøyene, at jeg får helt angst. Klin umulig å se hva man egenlig får, før man er inne i en eller annen evaluation mode, samme hva man har valgt for å komme dit. Faktisk det verste mølet jeg har vært borti på lenge. Så har bestemt meg for å droppe VMware helt, samme hvor bra det skulle være.

 

Ønsker å bruke en bare metal hypervisor. Hva er de praktiske forskjellene mellom f.eks Xen og KVM? Leser noen steder at Xen er mer tailored mot linux, mens KVM mer mot windows? Men at begge kan kjøre begge deler.

 

Noen som har noen erfaringer å dele? Pitfalls man burde unngå? Ytelse?

 

Heller litt mot Xen nå.

Det spørs hvilke guests du har planer om å kjøre, og hvilken type virtualisering du vil ha. Xen sitt fortrinn ligger i PV-modusen (paravirtualisering) dens hvor guest-kernel er spesifikt skrevet for å kjøre på en PV-host. Da er alle hardware-kall i kernelen byttet ut med PV-kompatible kall som hypervisoren behandler akkurat som den vil. Du får PV guest-kernels til de fleste store Linux-distroer og enkelte BSD-systemer.

Skal du derimot kjøre bruke en mer tradisjonell virtualiseringsstrategi med hardware-assistert virtualisering (HVM), så er KVM mer spesifikt skrevet for dette siden det er KVMs eneste modus. Xen er skrevet for å kunne gjøre både PV- og HVM-virtualisering. KVMs spissing mot HVM gjør at den takler dette litt bedre enn Xen, og det har tradisjonelt gjort at Windows-guests kjører bedre på KVM enn Xen. Det finner ikke PV-kernels til Windows og andre lukkede OS.

 

Edit: Sist jeg lekte meg med virtualisering virket det som at KVM hadde bedre GUI-verktøy for VM-administrasjon.

Edit2: Jeg tror Amazon EC2 stort sett kjører Xen, og bruker sannsynligvis Xen pga PV-muligheten som gjør det sinnsykt enkelt og kjapt å lage lette og homogene VMs med et par kommandoer.

Endret av endrebjo
  • Liker 1
Lenke til kommentar

Hei Stigfjel. Setter stor pris på innspillene dine!

 

 

Har kjøpt komponenter til en virtualiseringsserver (Intel server-hovedkort + Xeon), og planen var opprinnelig å kjøre VMware ESXI. Problemet her er at VMware har gjort det så utrolig tungvindt å skulle installere og drifte ESXI med gratisverktøyene, at jeg får helt angst. Klin umulig å se hva man egenlig får, før man er inne i en eller annen evaluation mode, samme hva man har valgt for å komme dit. Faktisk det verste mølet jeg har vært borti på lenge. Så har bestemt meg for å droppe VMware helt, samme hvor bra det skulle være.

Hva slags fallgruver tenker du på? Den mest åpenbare er at hvis du installerer ESXi 5.5 må du ikke finne på å oppgradere VMene til versjon 10, da VMer med versjon 10 kun kan endres med webklienten, og da trenger du et vCenter. Webklienten fungerer kun sammen med vCenter Server. Installerer du derimot ESXi 5.1 er du trygg, men alt har begrenset levetid. I alle tilfeller kan du patche ESXi, men det må gjøres manuelt (kommando), og du må boote boksen, og VMene. Igjen, velger du 5.5 er du ganske trygg så lenge du ikke oppgraderer virtuell HW til versjon 10. Du har ingen begrensning verken på CPU eller minne så lenge hovedkortet ikke har flere enn to CPU-sokler.

 

Fikk nok da jeg etter å ha lest side opp og side ned om VMware vSphere Hypervisor 5.5 (ESXI) forsøkte å installere "VMware vSphere Client 5.5 Update 1", som ligger under "Free Product Downloads". Da går alt rett i Evaluation mode, med 60 dagers trail. VMware vSphere Web Client nektet å fungere i Firefox/Chrome på Arch, og klarte ikke bli klok på hvorfor.

 

Er heldigvis ikke kun jeg som blir frustrert: https://communities.vmware.com/thread/457843

 

Orker rett og slett ikke prøve å lure meg rundt et firma som åpenbart ikke er interessert i å tilby gratisversjonen sin på noen måte. Blir lurt gang på gang.

 

Rotet rundt HW-versjon 10 på VM-ene er også tragisk. Ingen nedgraderingsmuligheter, om man først har oppgradert må man fikse mye manuelt for å kunne endre noe på hosten igjen (om man ikke vil betale seg ut av problemet, og oppgradere..).

 

 

Ønsker å bruke en bare metal hypervisor. Hva er de praktiske forskjellene mellom f.eks Xen og KVM? Leser noen steder at Xen er mer tailored mot linux, mens KVM mer mot windows? Men at begge kan kjøre begge deler.

 

Noen som har noen erfaringer å dele? Pitfalls man burde unngå? Ytelse?

 

Heller litt mot Xen nå.

KVM er i aller høyeste grad Linux-basert. Faktisk er KVM standard virtualiseringsteknologi i Linux, med støtte i kernelen. Xen var det før, men ble byttet ut med nettopp KVM. Xen på sin side er nå tatt over av Citrix. Red Hat har bygget en virtualiseringsplattform på KVM som konkurrerer med VMware, Citrix XenServer og Microsoft Hyper-V, nemlig RHEV.

 

Dårlig forklart fra min side. Det jeg mente er at jeg har lest at KVM er i større grad beregnet på å kjøre windows som VM-er, mens Xen er mer ment for Linux/BSD som VM-er. Dette kan også kun være oppspinn. Kilde: http://community.spiceworks.com/topic/376890-xen-and-kvm-who-is-using-what-and-why

 

Det ser ut til at det er ganske likt på ytelsen mellom KVM og Xen på Haswell - ihvertfall i følge phoronix: http://www.phoronix.com/scan.php?page=article&item=intel_haswell_virtualization&num=1

 

Det vil være aktuelt å ha muligheten til å kjøre en Windows-VM på et senere, selv om det er Linux som vil bli mest brukt. Både Xem og KVM skal støtte dette med Intel VT-x

 

Planen er å kjøre en virtuell router (VyOS - Ofte 1Gbit throughput med ruting) og fire-fem andre Linux-VM-er (lav last). Dette skal kjøres via iSCSI fra et NAS. Optimalt skal dette fungere såpass stabilt og driftsikkert at jeg skal glemme at det er virtualisert.

 

------------

 

Noen som har brukt Xen og KVM, og kan anbefale en av de over en annen? Og eventuelt hvorfor?

Lenke til kommentar

Planen er å kjøre en virtuell router (VyOS - Ofte 1Gbit throughput med ruting) og fire-fem andre Linux-VM-er (lav last). Dette skal kjøres via iSCSI fra et NAS. Optimalt skal dette fungere såpass stabilt og driftsikkert at jeg skal glemme at det er virtualisert.

Med den type throughput høres det ut som at du trenger noe som fungerer bra med VT-d også. ;-)
  • Liker 1
Lenke til kommentar

 

Har kjøpt komponenter til en virtualiseringsserver (Intel server-hovedkort + Xeon), og planen var opprinnelig å kjøre VMware ESXI. Problemet her er at VMware har gjort det så utrolig tungvindt å skulle installere og drifte ESXI med gratisverktøyene, at jeg får helt angst. Klin umulig å se hva man egenlig får, før man er inne i en eller annen evaluation mode, samme hva man har valgt for å komme dit. Faktisk det verste mølet jeg har vært borti på lenge. Så har bestemt meg for å droppe VMware helt, samme hvor bra det skulle være.

 

Ønsker å bruke en bare metal hypervisor. Hva er de praktiske forskjellene mellom f.eks Xen og KVM? Leser noen steder at Xen er mer tailored mot linux, mens KVM mer mot windows? Men at begge kan kjøre begge deler.

 

Noen som har noen erfaringer å dele? Pitfalls man burde unngå? Ytelse?

 

Heller litt mot Xen nå.

Det spørs hvilke guests du har planer om å kjøre, og hvilken type virtualisering du vil ha. Xen sitt fortrinn ligger i PV-modusen (paravirtualisering) dens hvor guest-kernel er spesifikt skrevet for å kjøre på en PV-host. Da er alle hardware-kall i kernelen byttet ut med PV-kompatible kall som hypervisoren behandler akkurat som den vil. Du får PV guest-kernels til de fleste store Linux-distroer og enkelte BSD-systemer.

Skal du derimot kjøre bruke en mer tradisjonell virtualiseringsstrategi med hardware-assistert virtualisering (HVM), så er KVM mer spesifikt skrevet for dette siden det er KVMs eneste modus. Xen er skrevet for å kunne gjøre både PV- og HVM-virtualisering. KVMs spissing mot HVM gjør at den takler dette litt bedre enn Xen, og det har tradisjonelt gjort at Windows-guests kjører bedre på KVM enn Xen. Det finner ikke PV-kernels til Windows og andre lukkede OS.

 

Edit: Sist jeg lekte meg med virtualisering virket det som at KVM hadde bedre GUI-verktøy for VM-administrasjon.

Edit2: Jeg tror Amazon EC2 stort sett kjører Xen, og bruker sannsynligvis Xen pga PV-muligheten som gjør det sinnsykt enkelt og kjapt å lage lette og homogene VMs med et par kommandoer.

 

Da tror jeg at KVM passer bedre for meg. Har lest en del nå, og ser ut til å være "riktig" valg. Takker for fine innspill!

 

 

Planen er å kjøre en virtuell router (VyOS - Ofte 1Gbit throughput med ruting) og fire-fem andre Linux-VM-er (lav last). Dette skal kjøres via iSCSI fra et NAS. Optimalt skal dette fungere såpass stabilt og driftsikkert at jeg skal glemme at det er virtualisert.

Med den type throughput høres det ut som at du trenger noe som fungerer bra med VT-d også. ;-)

 

Støtter heldigvis VT-d i tillegg til VT-x, så det burde gå helt greit :-)

 

HK: http://ark.intel.com/products/71385/Intel-Server-Board-S1200V3RPS

CPU: http://ark.intel.com/products/75053/Intel-Xeon-Processor-E3-1230L-v3-8M-Cache-1_80-GHz

Lenke til kommentar

Jeg har en værstasjon stående på fjellet, koblet opp til en raspberry pi. I tillegg har den GPS modul med PPS signal som holder klokken i sync, selv om jeg mister 3g uplinken.

 

rPien der oppe er forøvrig koblet opp med OpenVPN og OSPF, som gjør at jeg har public IPv6 subnet tilgjengelig der oppe. NTP serveren kan forøvrig nås via ntp3.kpolberg.net.

kpolberg@t1000:~$ ntpq -p ntp3.kpolberg.net
     remote           refid      st t when poll reach   delay   offset  jitter
==============================================================================
oGPS_NMEA(0)     .GPS.            0 l   16   16  377    0.000    0.002   0.002
+192.168.40.78   192.168.20.20    2 u   14   64  377   57.998   -4.023 123.162
+192.168.20.20   .GPS.            1 u   48   64  376   61.903    1.023 103.141
+43.81-167-79.cu 91.189.182.32    3 u   48   64  377   47.456    1.337  35.825
+80.239.2.130    85.89.3.25       2 u   18   64  377   47.541   -4.792  32.408
+85.93.226.32    129.240.2.42     5 u   60   64  377   57.200   -2.053  52.633
+mail.foffo.com  192.36.144.22    2 u   12   64  377   57.819    0.667  37.502
+89-162-103-217. .PPS.            1 u   39   64  377   77.141    0.318  23.064
+tikk.signal.no  192.36.144.22    2 u   35   64  377   65.454   -0.167 142.293

Lenke til kommentar

Kjører et par Ubuntu Server 12.04 JeOS i KVM/libvirt, satt opp med vmbuilder som gjør det meget enkelt å lage nye servere. Tok litt tid å forstå hvordan alt henger sammen (KVM+QEMU+libvirt), men fungerer supert. Bruker ikke GUI.

Lenke til kommentar
  • 2 uker senere...

Trenger med Linux kunnskaper for å compile router firmware uten login når den starter opp (Telnet / SSH).

Kontakt meg på PM for Skype / TeamSpeak / Mumble.

 

 

Solved.

Endret av Gjest
Lenke til kommentar

Klarte ikke låse den administrative mappen (/var/lib/dpkg/). Bruker en annen prosess den?

 

Wat.

 

Fungerer virkelig ikke å installere en skit gjennom terminalen, summethingisrly wrong.

Hvilken kommando bruker du? Har du rettigheter? (sudo / root)

 

Kjører et par Ubuntu Server 12.04 JeOS i KVM/libvirt, satt opp med vmbuilder som gjør det meget enkelt å lage nye servere. Tok litt tid å forstå hvordan alt henger sammen (KVM+QEMU+libvirt), men fungerer supert. Bruker ikke GUI.

VMbuilder har jeg ikke sett på enda, men virker som en kjapp måte å få ting opp på.

 

 

 

Har kjøpt komponenter til en virtualiseringsserver (Intel server-hovedkort + Xeon), og planen var opprinnelig å kjøre VMware ESXI. Problemet her er at VMware har gjort det så utrolig tungvindt å skulle installere og drifte ESXI med gratisverktøyene, at jeg får helt angst. Klin umulig å se hva man egenlig får, før man er inne i en eller annen evaluation mode, samme hva man har valgt for å komme dit. Faktisk det verste mølet jeg har vært borti på lenge. Så har bestemt meg for å droppe VMware helt, samme hvor bra det skulle være.

 

Ønsker å bruke en bare metal hypervisor. Hva er de praktiske forskjellene mellom f.eks Xen og KVM? Leser noen steder at Xen er mer tailored mot linux, mens KVM mer mot windows? Men at begge kan kjøre begge deler.

 

Noen som har noen erfaringer å dele? Pitfalls man burde unngå? Ytelse?

 

Heller litt mot Xen nå.

Det spørs hvilke guests du har planer om å kjøre, og hvilken type virtualisering du vil ha. Xen sitt fortrinn ligger i PV-modusen (paravirtualisering) dens hvor guest-kernel er spesifikt skrevet for å kjøre på en PV-host. Da er alle hardware-kall i kernelen byttet ut med PV-kompatible kall som hypervisoren behandler akkurat som den vil. Du får PV guest-kernels til de fleste store Linux-distroer og enkelte BSD-systemer.

Skal du derimot kjøre bruke en mer tradisjonell virtualiseringsstrategi med hardware-assistert virtualisering (HVM), så er KVM mer spesifikt skrevet for dette siden det er KVMs eneste modus. Xen er skrevet for å kunne gjøre både PV- og HVM-virtualisering. KVMs spissing mot HVM gjør at den takler dette litt bedre enn Xen, og det har tradisjonelt gjort at Windows-guests kjører bedre på KVM enn Xen. Det finner ikke PV-kernels til Windows og andre lukkede OS.

 

Edit: Sist jeg lekte meg med virtualisering virket det som at KVM hadde bedre GUI-verktøy for VM-administrasjon.

Edit2: Jeg tror Amazon EC2 stort sett kjører Xen, og bruker sannsynligvis Xen pga PV-muligheten som gjør det sinnsykt enkelt og kjapt å lage lette og homogene VMs med et par kommandoer.

 

Da tror jeg at KVM passer bedre for meg. Har lest en del nå, og ser ut til å være "riktig" valg. Takker for fine innspill!

 

 

Planen er å kjøre en virtuell router (VyOS - Ofte 1Gbit throughput med ruting) og fire-fem andre Linux-VM-er (lav last). Dette skal kjøres via iSCSI fra et NAS. Optimalt skal dette fungere såpass stabilt og driftsikkert at jeg skal glemme at det er virtualisert.

Med den type throughput høres det ut som at du trenger noe som fungerer bra med VT-d også. ;-)

 

Støtter heldigvis VT-d i tillegg til VT-x, så det burde gå helt greit :-)

 

HK: http://ark.intel.com/products/71385/Intel-Server-Board-S1200V3RPS

CPU: http://ark.intel.com/products/75053/Intel-Xeon-Processor-E3-1230L-v3-8M-Cache-1_80-GHz

 

Landet på KVM (qemu), libvirt og Open vSwitch. Funker supert, etter en god del timer med kløning og testing for å få ting som jeg vil. Ingen ytelsesproblemer med ruting på virtuell ruter, eller switching av trafikk på VLAN over virtuell switch.

Lenke til kommentar

For brukere av Wimp så har web løsningen blitt tilgjengelig (i beta): http://play.wimpmusic.com/

Da slipper vi å tenke mer på adobe air :D Har testet den litt i Opera, og så langt fungerer ting bra. Det eneste jeg ser mangler (hittil) er scrobbling til last.fm Wimp Hifi er ikke tilgjengelig ennå.

Endelig. Har begynt å bruke Grooveshark i det siste, men nå kan jeg sannelig bruke Wimp igjen også.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...