Proxmox VE 9.1 ist da: Mehr Kontrolle bei Containern, VMs und SDN
Proxmox legt nach und schiebt Version 9.1 des Proxmox Virtual Environment raus. Die neue Ausgabe dreht sich grob um drei Dinge: Container-Bereitstellung, Sicherheit rund um virtuelle Maschinen und Software-Defined Networking. Für Admins, die Proxmox im Rechenzentrum oder im eigenen Rack laufen haben, ist das Update damit mehr als nur ein Bugfix-Release.
Spannend für alle, die stark auf Container setzen: Proxmox VE 9.1 kann jetzt direkt mit OCI-Images umgehen. Images aus Registries lassen sich einbinden und als Basis für LXC-Container nutzen, egal ob als vollwertige System-Container oder schlanke Application-Container. Letztere sind auf Microservices und gezielte Dienste zugeschnitten, ziehen weniger Ressourcen und passen damit gut zu bestehenden CI/CD-Pipelines. Die Bereitstellung läuft wahlweise über das Webinterface oder klassisch über die Kommandozeile.
Beim Thema Sicherheit geht es in dieser Version um das virtuelle TPM. Der vTPM-Zustand kann laut der Entwickler im qcow2-Format abgelegt werden. Das mache vollständige Snapshots von VMs mit aktivem vTPM einfacher, auch über verschiedene Storage-Typen wie NFS oder CIFS hinweg. LVM-Storage mit Volume-Chains kommt ebenfalls damit klar und erlaubt Offline-Snapshots inklusive vTPM-Status. Wer Windows-Installationen mit vTPM-Anforderung hostet, hat damit etwas weniger Kopfzerbrechen beim Backup und beim Verschieben von Workloads.
Ebenfalls neu ist eine feinere Steuerung für Nested Virtualization. Statt dem Gast stumpf den kompletten Host-CPU-Typ durchzureichen, lässt sich Nested Virtualization gezielt per vCPU-Flag schalten. Für Umgebungen mit verschachtelten Hypervisoren oder Windows mit Virtualization-based Security ist das deutlich angenehmer, weil die eigene CPU-Konfiguration sauberer kontrolliert werden kann.
Im Bereich SDN hat Proxmox an der Oberfläche geschraubt. Die Web-GUI zeigt nun deutlich mehr Statusinformationen an: Welche Gäste an Bridges oder VNets hängen, welche IP- und MAC-Adressen in EVPN-Zonen gelernt wurden und welche Parameter zu Fabrics, Routen und Interfaces anliegen. IP-VRFs und MAC-VRFs sind in der Ansicht sichtbarer. Die Idee dahinter: weniger Springen auf die Shell, schnellerer Überblick über komplexere Netzwerk-Topologien im Cluster. Interessierte sollten sich hier noch etwas genauer einlesen.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Findet ihr Proxmox oder Unraid besser für den kleinen Homeserver?
Proxmox
Das ist natürlich Geschmackssache und kommt auch sehr auf die Anwendungsfälle an. Bei mir ist es am Ende aber Proxmox geworden. Mit VMs und Container bin ich für meine Einsatzzwecke flexibler unterwegs. Unraid hatte hingegen mehr „NAS“ Feeling, also App installieren und ab die Post (sind natürlich auch nur Container). Es kommt sehr darauf an, was du vorhast. Beide haben ihre Stärken und Schwächen.
Ist beides nicht wirklich vergleichbar. Wenn du eine Nas benötigst + etwas Virtualisierung, Container ist Unraid keine schlechte Wahl. Wenn der Fokus auf Virtualisierung Richtung VMWare liegt, Nas Funktionen nicht von belang sind ist Proxmox meines Erachtens die bessere Wahl.
Proxmox ist ein perfektes ZFS NAS mit ksmbd/SAMBA (oder dem kernel-NFS Server). In der aktuellen 9.1 Version bereits mit OpenZFS 2.3.4 mit neuesten ZFS features wie zfs rewrite um Pools nach Erweiterung neu auszubalancieren oder Daten in einem Hybrid Pool aus hdd und NVMe gezielt zwischen beiden zu verschieben. NFS und SMB kann man zusammen mit ACL Unterstützung einfach in Proxmox aktivieren.
Wenn man sich nicht so mit den zfs/zpool Befehlen auf der Console beschäftigen möchte, gibts storage web-gui add-ons zu Proxmox wie z.B. Cockpit/Poolsman oder napp-it cs, eine portable multi-os/multi server web-gui die man nach herunterladen ohnme installation direkt starten kann.
Leider gibt es auch weiterhin keinen richtigen Resource-Scheduler, wie man ihn aus der VMware Welt für Enterprises kennt – dort auch als DRS bekannt.
Aber um VMs (oder auch CTs) anhand der Memory/RAM, CPU oder Disk Auslastung über Nodes in einem Proxmox Cluster zu verteilen, gibt es das kostenlose und open-source Projekt ProxLB (https://github.com/gyptazy/ProxLB). Dies wurde auch letzten Monat auf dem Dutch Proxmox Day 2025 vorgestellt und ergänzt diese Funktionalität, inkl. Affinity, Anti-Affinity, Grouping/Pinning, Evacuation Features und mehr.