ich habe hier ständig einen Virtualisierer für meine ganzen Dienste laufen.
Auf der Proxmoxkiste würde ich nun gern auch ein Freifunkgluon/Offloader installieren und dann via VLAN über meine Ubiquiti APs Freifunk verteilen. Theoretisch müsste es gehen. Jedoch hakt es noch… Ich nehme das stable x86 generic 64 bit Image. Zwei Netzwerkbrücken wurden zugeordnet. Die Maschine startet.
Über 192.168.1.1 der VM wird mir keine Freifunkkonfiguration angeboten. Über die Kommandozeile via ifconfig wir mir nur der localhost angeboten. Gibt es irgendwo eine Anleitung für KVM?
Ich habe einen Knoten in meinem Proxmox laufen.
Wichtig ist, dass es beim ersten Boot zwei NICs vorhanden sind (ideal auch danach noch) ausserdem muss man drauf achten dass Promiscuous Mode auf beiden NICs aktiv ist.
Nach dem ersten Boot muss man herausfinden welche der beiden NICs für “br-setup” genutzt wurde.
Dann geht auch die Installation über die Config-Mode Webseite
für alle TL;DR Freunde:
Gibt es eine Dokumentation wie man auf einem beliebigen Linux-Basissystem ein Freifunkimage aufbaut?
und hier nun die Details
Ich habe auch mit dem x64 Offloader für VMware rumgespielt und das mit der Anleitung für den Futuro relativ schnell zum laufen gekriegt. Allerdings nutze ich dafür einen ESXi (in der freien Version) was erstmal ganz gut funktioniert und auch dem ESXi (i7-3615QM) keine Probleme mit dem Durchsatz gezeigt hat.
Meine Motivation das virtuell zu machen ist die gleiche wie bei tobox. Ich habe eine VMware ESX Umgebung mit gemanagten Switch (mit VLANs) und Ubiquitis dazu.
Bis dato hatte ich das mit den Ubiquities kombiniert mit einem TP-Link WR710N, wo ich das WLAN einfach ausgeknipst habe (macht im Keller einfach keinen Sinn). Das Ding ist letzt über die Wupper gegangen und so musste ich mich auf die Suche machen nach einer Alternative.
Leider sind in dem Image keine Open-VM-Tools drin. Das macht das steuern über die Webkonsole ziemlich schwierig. Als ich das Image dann auf einen VMware Cluster verschoben habe war es aber dann auch schon aus mit der Stabilität. Die Maschine läßt sich - obwohl die so winzig ist (im eingeschalteten Zustand) - nicht wirklich verschieben auf einen anderen Clusterknoten. Dabei ging mir das Image zweimal über die Wupper :-(
Vielleicht würde ein anderes Basissystem als OpenWRT hier helfen. ZB ein Minimal-Debian mit ext4. Da ist es ziemlich einfach das aktuell zu halten und es stehen jede Menge Tools für das trouble-shooting zur Verfügung.
Was mir helfen würde wäre eine Beschreibung wie man ein Freifunkimage softwaremäßig aufbaut (Komponenten), also was man alles braucht und wo das wie eingebunden werden muss. Dann könnte ich versuchen das mal mit einem Debian System zu laufen zu bekommen. Bei den virtuellen Systemen gibt es ja praktisch kaum Beschränkungen wie das bei den Embedded Systemen bezüglich RAM, CPU, DISK ja normalerweise ist.
BTW: Die Eigenschaft Promiscous wird bei VMware entweder auf dem ganzen vSwitch (Tab Security) gesetzt oder man kann es pro VLAN machen. Ich mach das so, dass ich erstmal ein “normales” VLAN anlege und dann nochmal eins mit dem gleichen Prefix+_promisc also zB VLAN50 und VLAN50_promisc. Das PromiscVLAN bekommt dann die passende Config mit den drei Securitysettings angehakt(das sind: PromiscMode, MacAddressChanges, ForgedTransmits). Das promisc VLAN ordne ich dann der VM auf der LAN Seite zu(eth0). Auf der WAN Seite (eth1) ging es auch mit dem normalen VLAN ohne promisc Setting.
Ich habe seit über zwei Jahren einen Freifunk-Offloader auf einem VMWare-Cluster (3 Hosts) unter ESXi 5.5 stabil am Laufen. Es war der erste Offloader beim Freifunk-Stuttgart, noch bevor das Gluon-x86 im Zuge der Futros richtig bekannt wurde. Neben der Sache mit dem Promiscuous-Mode muss pro Host noch ein zusätzlicher Parameter geändert werden, wenn vSwitches redundant mit der Aussenwelt angebunden sind, sonst gibt es bei aktiviertem Promiscuous-Mode Loops:
Net.ReversePathFwdCheckPromisc = 1
Ist unter “Konfiguration - Software - Erweiterte Einstellungen” zu finden.
vielen Dank für den Tip - hab ich gleich mal nach konfiguriert auf meinem 3-Node ESXi6.0u3.
Das Problem mit dem ich kämpfe ist, dass die Platte von dem Offloader immer wieder “kaputt” geht und dann stehen bleibt mit “waiting” for root. An dieser Stelle komme ich nicht weiter.
Hast Du die open-vm-tools installiert? Wenn ja wie hast Du das gemacht?
ja mit genau diesem Image habe ich angefangen und habe es in einer VM als Disk angehängt. Das Image tut auch erstmal und hat bei mir ein paar Tage durchgehalten, bis mein ESX gemeint hat der müsste das auf einen anderen Knoten verschieben. Der Datastore ist nfs mit einem komplett eigenen Netz, den alle ESXe sehen.
Vielen Dank für das Angebot - das ist perfekt! Ja es fehlen die VMware Tools im VMware ESXi Image. Es gibt alternativ zu dem Toolset von VMware eine freie Version die ich auch bevorzugen würde. Mit der freien Version gibts keinen Stress mit den Versionen, wie das gerne mal mit den originalen VMware Tools passiert.
Das Toolset heisst Open-VM-Tools (https://github.com/vmware/open-vm-tools und die Version für LEDE liegt hier: https://github.com/minhoryang/open-vm-tools--openwrt). Bei den meisten Linuxdistros ist das in den jeweiligen Repositories direkt dabei. Ich verwende das mit alllen meinen Linuxmaschinen und hatte noch nie ein Problem damit.
Wann steht denn die nächste Version an - oder gibts da einen nightly?
Ja es gibt eine nightly.
Gibt es die open-vm-tools auch in einem OpenWRT/LEDE Repository (ich habe bei kurzer Suche keins finden können)? Wenn ja gib mir bitte den Paketnamen (ggf Repo Link), Wenn nein muss ich dich leider enttäuschen weil ohne dies ist eine Einbindung mit viel Aufwand verbunden ist.
Alternativ kannst du auch immer einen direkten Request bei Gluon oder LEDE stellen.
Ich bin auch an den VMware-Tools für Gluon interessiert. Für OpenWRT hatte ich nichts gefunden und deshalb das Thema bis zur Einführung der LEDE-basierten Firmware beim FFS vertagt (mit der nächsten Firmware ist es soweit).
@freifunk4eb7: In VMware-Clustern mit shared storage auf Basis von SCSI3 (z.B. beim Intel Modular Server) oder iSCSI (z.B. mit OpenFiler) habe ich keine Schwierigkeiten beim vMotion. NFS habe ich nie benutzt.