Proxmox VE(PVE)提供了一個基于 Web UI(管理界面)的虛擬化管理平臺,用戶可以通過瀏覽器管理 虛擬機(VM)、容器(LXC)、存儲、網絡、備份、用戶權限等。
一、PVE Web 界面功能詳解
PVE 的 Web 管理界面分為 左側導航欄(資源樹) 和 右側管理面板,主要包括以下核心功能:
1. 數據中心(Datacenter)
位置: 界面左側最頂層的節點
用途: 適用于 集群管理、全局配置
🔹 主要功能
子功能 | 作用 |
---|---|
集群(Cluster) | 管理 PVE 集群節點(多個服務器組成的 PVE 集群) |
存儲(Storage) | 添加/管理存儲池(ZFS、Ceph、NFS、iSCSI 等) |
備份(Backup) | 配置 自動備份任務,支持快照、增量備份 |
用戶(Users)& 權限(Permissions) | 創建/管理 用戶、權限、API 訪問 |
防火墻(Firewall) | 配置集群級別的 防火墻規則 |
訂閱(Subscription) | 顯示企業訂閱信息(無訂閱會提示警告) |
? 適用場景:
-
適用于 多臺 PVE 服務器組成的集群管理
-
統一管理 存儲、權限、備份策略
2. 節點(Node)
位置: 數據中心下的每臺服務器節點
用途: 管理單個 PVE 服務器的資源(CPU、內存、存儲、網絡等)
🔹 主要功能
子功能 | 作用 |
---|---|
摘要(Summary) | 顯示 CPU、內存、磁盤、網絡 IO 統計 |
系統(System) | 管理 服務器 hostname、時區、更新 |
網絡(Network) | 配置 橋接網絡、VLAN、綁定(bonding) |
存儲(Disks & Storage) | 管理服務器本地 磁盤、ZFS 存儲、RAID |
任務(Tasks) | 監控任務狀態(備份、遷移、啟動等) |
日志(Logs) | 查看系統日志,排查問題 |
Shell 終端 | 遠程 SSH 登錄管理服務器 |
? 適用場景:
-
管理單臺 PVE 服務器(虛擬化資源、存儲、網絡)
-
網絡配置(VLAN、橋接、Bonding)
3. 虛擬機(VM)
位置: 選中某個節點后,點擊“虛擬機”
用途: 創建、管理 KVM 虛擬機(VM)
🔹 主要功能
子功能 | 作用 |
---|---|
概覽(Summary) | 顯示 VM CPU、內存、磁盤使用情況 |
硬件(Hardware) | 配置 CPU、內存、磁盤、網卡、PCI 直通(Passthrough) |
選項(Options) | 設置 VM 自動啟動、引導順序、QEMU Guest Agent |
快照(Snapshots) | 創建 VM 快照(Snapshot),支持回滾 |
備份(Backup) | 手動備份 VM,或配置 定期自動備份 |
云初始化(Cloud-Init) | 用于 云環境 VM 自動初始化 |
控制臺(Console) | 遠程連接 VM(VNC、Spice) |
日志(Logs) | 查看 VM 運行日志 |
? 適用場景:
-
創建 Windows/Linux KVM 虛擬機
-
PCI 直通(GPU、網卡),用于 AI、NAS、網絡優化
-
通過 快照/備份 保護 VM 數據安全
4. 容器(LXC)
位置: 選中某個節點后,點擊“容器”
用途: 管理輕量級 LXC 容器(比 VM 更輕量)
🔹 主要功能
子功能 | 作用 |
---|---|
概覽(Summary) | 顯示 LXC 容器 CPU、內存、磁盤 |
硬件(Hardware) | 調整 CPU、內存、磁盤、掛載點 |
備份(Backup) | 備份/恢復 LXC 容器 |
控制臺(Console) | 遠程訪問 LXC 容器 |
日志(Logs) | 查看 LXC 容器運行日志 |
? 適用場景:
-
Web 服務器、數據庫(比 VM 輕量,占用資源更少)
-
輕量級應用(如 Home Assistant、NAS 服務等)
5. 存儲(Storage)
位置: 數據中心 → 存儲
用途: 管理 PVE 存儲資源(本地磁盤、NFS、Ceph、ZFS)
🔹 主要存儲類型
存儲類型 | 用途 |
---|---|
本地磁盤(Directory) | 存放 VM 磁盤、ISO、備份 |
ZFS(RAID + 存儲池) | 高性能存儲,可做 快照、復制 |
Ceph(分布式存儲) | 適用于 PVE 集群高可用存儲 |
NFS / iSCSI / CIFS | 遠程存儲,適合 NAS 設備 |
? 適用場景:
-
小型環境:ZFS 本地存儲(快照 + RAID)
-
大規模集群:Ceph 分布式存儲
6. 備份(Backup)
位置: 數據中心 → 備份
用途: 定期自動備份 VM/LXC,防止數據丟失
? 支持功能:
-
快照備份(Snapshot)
-
增量備份(Proxmox Backup Server,節省存儲空間)
-
定時任務(自動備份)
-
遠程存儲(NFS、PBS 服務器)
? 適用場景:
-
企業級數據保護(備份重要 VM,防止數據丟失)
-
異地備份(PBS + 遠程存儲)
7. 用戶 & 權限(User & Permissions)
位置: 數據中心 → 用戶/權限
用途: 管理用戶角色和權限
? 支持功能:
-
多用戶管理(管理員、運維、只讀用戶)
-
API 訪問控制(Proxmox API 權限)
-
LDAP/Active Directory 認證
? 適用場景:
-
多管理員管理 PVE(限制不同用戶權限)
-
企業 IT 認證系統(LDAP 集成)
總結
PVE Web UI 提供了完整的虛擬化管理能力,集成 VM、LXC、存儲、備份、權限等功能,適用于企業私有云、IT 運維管理、個人服務器等場景。 🚀
二、PVE網絡介
在 Proxmox VE(PVE) 中,網絡管理是核心組件之一,涉及 虛擬機(VM)、容器(LXC)、存儲、集群、高可用(HA)等,正確的網絡配置可以提升性能、可用性和安全性。
1. PVE 網絡管理概述
PVE 默認使用 Linux 網絡棧,支持 Linux Bridge(橋接)、VLAN、Bonding(鏈路聚合)、SDN(軟件定義網絡)等,可以靈活配置不同的網絡方案。
🛠 核心網絡概念:
組件 | 作用 |
---|---|
Linux Bridge(橋接) | 讓 VM/LXC 通過物理網卡訪問網絡(類似交換機) |
VLAN(虛擬局域網) | 邏輯隔離 VM/LXC 網絡,提高安全性 |
Bonding(鏈路聚合) | 綁定多個物理網口,提高帶寬和冗余 |
SDN(軟件定義網絡) | 適用于大規模集群,支持 VXLAN、BGP 等 |
NAT(網絡地址轉換) | 適用于無公網 IP 的 PVE 服務器 |
2. PVE 網絡配置界面
位置: PVE Web 界面 → 選擇節點 → 網絡(Network)
在 網絡(Network) 選項卡中,你可以看到:
-
物理網卡(eth0、eth1、eno1等)
-
橋接網絡(vmbr0, vmbr1等)
-
VLAN 設備(vlan10, vlan20等)
-
Bonding(bond0, bond1等)
3. 常見網絡配置方案
3.1 橋接網絡(Bridge)
? 適用場景:
-
單臺 PVE 或 小型集群,讓 VM/LXC 直接訪問物理網絡
-
適用于家庭服務器、企業私有云
📌 配置步驟(Web UI)
-
創建 Linux Bridge(橋接)
-
節點 → 網絡 → 創建 → Linux Bridge
-
名稱:
vmbr0
-
網卡: 選擇
eth0
(或者其他物理網卡) -
IP 地址: 配置 PVE 管理 IP(如
192.168.1.100/24
) -
網關: 填寫路由器 IP(如
192.168.1.1
)
-
-
綁定虛擬機
-
創建 VM/LXC 時,網卡選擇
vmbr0
(相當于 VM 連接到交換機)
-
? 示例 interfaces
配置文件
auto lo
iface lo inet loopback# 物理網卡(無 IP)
auto eth0
iface eth0 inet manual# 橋接網絡(給 PVE & VM 用)
auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports eth0bridge_stp offbridge_fd 0
📌 效果:
-
PVE 本機 IP:
192.168.1.100
-
VM/LXC 直接訪問路由器,獲取 IP(DHCP 或靜態分配)
3.2 VLAN(虛擬局域網)
? 適用場景
-
隔離不同 VM/LXC 網絡
-
企業級環境(提高安全性)
📌 配置步驟
-
啟用 VLAN
-
節點 → 網絡 → 編輯 vmbr0
-
VLAN 選項:開啟 VLAN 感知(VLAN Aware)
-
-
創建 VM/LXC 并分配 VLAN
-
VM 網卡 → 高級 → VLAN Tag(如 10)
-
? 示例 interfaces
配置
auto eth0
iface eth0 inet manualauto vmbr0
iface vmbr0 inet manualbridge_ports eth0bridge_stp offbridge_fd 0bridge_vlan_aware yes
📌 效果:
-
VM 1(VLAN 10) → 只能訪問 VLAN 10 的設備
-
VM 2(VLAN 20) → 只能訪問 VLAN 20 的設備
-
PVE 本機 仍能訪問所有 VLAN
3.3 Bonding(鏈路聚合)
? 適用場景
-
提高帶寬 & 負載均衡
-
高可用(防止單網口故障)
📌 配置步驟
-
創建 Bonding
-
節點 → 網絡 → 創建 → Bond
-
模式:LACP(802.3ad)
-
綁定網卡:eth0 + eth1
-
-
創建橋接并連接 Bond
-
創建
vmbr0
-
橋接端口:
bond0
-
? 示例 interfaces
配置
auto bond0
iface bond0 inet manualbond-slaves eth0 eth1bond-mode 802.3adbond-miimon 100auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports bond0bridge_stp offbridge_fd 0
📌 效果:
-
PVE 服務器 & VM 使用雙網口(LACP 綁定)
-
提升帶寬 & 可靠性
3.4 NAT(適用于無公網 IP)
? 適用場景
-
PVE 服務器無公網 IP
-
VM/LXC 需要訪問外網
📌 配置步驟
-
創建內部網橋(vmbr1)
-
啟用 NAT
-
iptables
配置轉發規則
-
? 示例 interfaces
配置
auto vmbr1
iface vmbr1 inet staticaddress 192.168.100.1/24bridge_ports nonebridge_stp offbridge_fd 0post-up echo 1 > /proc/sys/net/ipv4/ip_forwardpost-up iptables -t nat -A POSTROUTING -s 192.168.100.0/24 -o eth0 -j MASQUERADEpost-down iptables -t nat -D POSTROUTING -s 192.168.100.0/24 -o eth0 -j MASQUERADE
📌 效果:
-
VM(192.168.100.x)可通過 NAT 訪問外網
-
但外網無法訪問 VM(需要端口轉發)
4. 總結
方案 | 適用場景 | 特點 |
---|---|---|
橋接(Bridge) | 小型環境 | VM 直連物理網絡 |
VLAN | 多部門隔離 | VM 只能訪問特定 VLAN |
Bonding | 高可用 & 負載均衡 | 提高帶寬,防止單點故障 |
NAT | 無公網 IP | VM 通過 PVE 出網 |
📌 最佳實踐建議
-
小型環境(家庭/小企業) → 橋接 + VLAN
-
企業私有云 → VLAN + Bonding
-
無公網 IP 服務器 → NAT
這樣,你可以根據 需求 選擇合適的 PVE 網絡配置 🚀
三、PVE網絡管理
PVE(Proxmox Virtual Environment) 沒有像 VMware vSwitch(虛擬交換機) 這樣的概念,而是直接使用 Linux Bridge(橋接網絡) 作為虛擬機和物理網絡之間的橋梁。
對比項 | PVE(Proxmox VE) | VMware ESXi |
---|---|---|
虛擬交換機 | ? 無獨立 vSwitch,使用 Linux Bridge | ? 具有 vSwitch(標準交換機、分布式交換機) |
默認網絡模式 | Linux Bridge(vmbr0) | vSwitch(vSwitch0) |
VLAN 支持 | ? 支持 VLAN Aware | ? 支持 VLAN 端口組 |
鏈路聚合 | ? Bonding(Linux Bonding) | ? LAG / LACP |
SDN 支持 | ? 通過 Proxmox SDN 插件 | ? vDS(分布式交換機) |
NAT 支持 | ? 通過 Linux iptables | ? 需要 NSX 或物理路由 |
防火墻 | ? Linux iptables | ? VMware NSX |
1. PVE 使用 Linux Bridge(橋接網絡)
在 VMware ESXi 里,每個 ESXi 主機都會有一個 vSwitch(標準交換機或分布式交換機),然后你可以在 vSwitch 上創建 端口組(Port Group) 并分配 VLAN。
但在 PVE 中,它不需要 vSwitch,而是使用 Linux 自帶的 橋接(Bridge) 機制。Linux Bridge 直接模擬一個二層交換機,所有連接到它的虛擬機就像插入了物理交換機一樣。
? 默認情況下,PVE 創建的 vmbr0
就是一個虛擬交換機
-
物理網卡(eth0) 連接到 vmbr0
-
VM/LXC 的網卡(vnet0、vnet1...) 連接到 vmbr0
-
vmbr0 負責數據轉發,相當于 vSwitch
📌 示例:PVE vmbr0
配置
auto eth0
iface eth0 inet manualauto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports eth0bridge_stp offbridge_fd 0
📌 效果:
-
vmbr0
相當于 VMware vSwitch -
所有 VM 連接
vmbr0
,就能訪問物理網絡
2. VLAN 管理(類似 VMware 端口組)
在 VMware vSwitch 里,我們可以創建 端口組(Port Group),并分配不同的 VLAN ID。
在 PVE 里,我們可以直接在 Linux Bridge(vmbr0)上啟用 VLAN 感知(VLAN Aware),然后給 VM 綁定 VLAN。
? 在 PVE Web UI 里啟用 VLAN
-
進入 PVE Web UI
-
節點 → 網絡 → 編輯 vmbr0
-
勾選 VLAN Aware(支持 VLAN 感知)
-
-
創建 VM 并綁定 VLAN
-
VM → 網絡設備 → VLAN Tag
-
填寫 VLAN ID(如 10)
-
? 示例 VLAN 配置(手動 interfaces
文件)
auto vmbr0
iface vmbr0 inet manualbridge_ports eth0bridge_vlan_aware yes # 啟用 VLAN 感知
📌 效果:
-
VM1(VLAN 10) → 只能訪問 VLAN 10
-
VM2(VLAN 20) → 只能訪問 VLAN 20
-
PVE 本機仍然可以訪問所有 VLAN
3. Bonding(等效 VMware LAG / LACP)
在 VMware 里,我們可以創建 LAG(鏈路聚合組) 或者 LACP(動態鏈路聚合),提升帶寬和可靠性。
在 PVE 里,我們使用 Linux Bonding 實現相同的效果。
? PVE 綁定兩個網卡(eth0 + eth1)
auto bond0
iface bond0 inet manualbond-slaves eth0 eth1bond-mode 802.3ad # LACP 模式bond-miimon 100auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports bond0
📌 效果:
-
雙網卡綁定,實現負載均衡
-
高可用(一個網卡故障,仍然能訪問網絡)
4. SDN(等效 VMware NSX)
VMware 有 NSX-T(軟件定義網絡),用于 VXLAN、BGP 路由等。
PVE 也支持 SDN(軟件定義網絡),但需要 安裝 Proxmox SDN 插件。
? PVE SDN 支持的功能
功能 | VMware NSX | Proxmox SDN |
---|---|---|
VXLAN | ? | ? |
BGP 動態路由 | ? | ? |
防火墻 | ? | ?(iptables) |
NAT / DNAT | ? | ? |
📌 適用于大規模集群,適合云計算平臺
5. 總結
功能 | PVE(Proxmox VE) | VMware ESXi |
---|---|---|
虛擬交換機 | ? 無 vSwitch,使用 Linux Bridge | ? vSwitch(標準/分布式) |
VLAN 支持 | ? VLAN Aware | ? VLAN Port Group |
鏈路聚合 | ? Bonding | ? LACP / LAG |
NAT 支持 | ? iptables | ? 需要 NSX |
SDN | ? Proxmox SDN | ? NSX-T |
防火墻 | ? iptables | ? NSX 分布式防火墻 |
? 適用場景建議
-
小型企業 / 個人服務器 → PVE 橋接網絡(Linux Bridge)
-
企業環境(多 VLAN) → VLAN + Bonding
-
大型 SDN / 云計算 → Proxmox SDN(VXLAN、BGP)
?🔹 總結一句話:
PVE 沒有 VMware vSwitch,但 Linux Bridge + VLAN + Bonding 足以滿足大多數需求,并且 更加靈活和開源 🚀
四、PVE(Proxmox Virtual Environment)的 HA(高可用)功能
Proxmox VE(PVE) 提供了 HA(High Availability,高可用性) 功能,使虛擬機(VM)和容器(LXC)能夠在物理節點故障時自動遷移,保持業務連續性。
1. PVE HA 的核心概念
PVE HA 主要基于 集群(Cluster) 和 HA 資源管理器(HA Manager),確保 VM 和容器在主機宕機后能夠自動恢復。
組件 | 作用 |
---|---|
Proxmox Cluster(集群) | 由多個 PVE 節點組成,支持 HA 管理 |
HA Manager(HA 管理器) | 負責監測節點健康狀態,執行 HA 任務 |
Corosync | 負責集群通信,確保 HA 管理同步 |
Fence(隔離機制) | 防止 "腦裂" 現象,確保宕機節點不會誤操作 |
Live Migration(實時遷移) | 在主機健康狀態下手動遷移 VM |
📌 HA 的核心目標:
-
自動故障切換:如果某個節點故障,VM/容器會自動啟動到其他健康節點
-
高可用性:最大限度減少宕機時間
-
自動恢復:系統自動檢測失敗節點,并在可用節點上恢復 VM/容器
2. HA 工作原理
🟢 正常運行
-
所有節點正常,VM 運行在各自的 PVE 服務器上。
-
Corosync 負責集群內的狀態同步,所有節點都知道彼此的狀態。
🔴 發生故障
-
某個 PVE 節點宕機(如服務器斷電)。
-
HA Manager 通過 Corosync 發現該節點丟失心跳。
-
Fence(隔離機制)觸發,防止腦裂(如果啟用了 STONITH)。
-
HA Manager 自動將 VM 遷移到其他健康節點 并啟動。
🟢 故障恢復
-
故障節點恢復后,VM 仍然運行在遷移后的新節點。
-
管理員可以手動遷移 VM 回到原始節點。
3. 配置 PVE HA
📌 3.1 創建 PVE 集群
-
第一臺 PVE 服務器:創建集群
pvecm create my-cluster
- ?其他 PVE 服務器:加入集群
pvecm add <主節點IP>
- 檢查集群狀態
pvecm status
示例輸出
Cluster information
-------------------
Name: my-cluster
Nodes: 3
Quorum: 2
📌 3.2 配置 HA
啟用 HA 管理器
systemctl enable --now pve-ha-lrm pve-ha-crm
在 Web 界面
-
進入 Datacenter(數據中心)→ HA
-
選擇 “HA 資源” 并添加 VM / LXC
-
設置 恢復策略(Recovery Policy):
-
restart
(重啟 VM) -
migrate
(自動遷移 VM)
-
4. HA 資源的恢復策略
策略 | 說明 |
---|---|
Disabled(禁用) | 資源不會 HA 保護 |
Freeze(凍結) | 保持資源當前狀態 |
Restart(重啟) | VM/容器將在相同節點上自動重啟 |
Migrate(遷移) | VM/容器將在其他節點上啟動 |
5. 使用 HA 時的最佳實踐
? 建議至少 3 臺 PVE 服務器,確保 集群仲裁(Quorum)
? 啟用 Fencing(隔離機制),防止腦裂(STONITH + IPMI)
? 使用共享存儲(Ceph、NFS、iSCSI),確保 VM 遷移不丟數據
? 使用 Bonding 提升網絡可用性,防止網絡單點故障
? 定期檢查 HA 狀態:
ha-manager status
6. 總結
-
PVE HA 允許 VM/LXC 在節點故障時自動遷移
-
依賴 Corosync 進行集群通信
-
需要至少 3 臺 PVE 服務器保證 Quorum
-
支持 Restart、Migrate 等策略
-
配合 Ceph 存儲,可實現無縫高可用
📌 適用于:
-
企業生產環境
-
私有云 / 數據中心
-
關鍵業務服務(數據庫、Web 服務器等)
🚀 如果你希望構建企業級 HA 高可用架構,PVE + Ceph 是一個不錯的選擇!
五、PVE 中的 Ceph 存儲:完整指南
Ceph 是一個開源的分布式存儲系統,在 Proxmox VE(PVE) 中可用于 高可用共享存儲,支持 塊存儲(RBD)、文件存儲(CephFS)和對象存儲(RGW)。
📌 適用場景:
-
高可用存儲:無單點故障,數據自動復制
-
Proxmox HA(高可用集群):支持 VM 遷移
-
分布式存儲:自動均衡,擴展性強
1. Ceph 的基本概念
組件 | 作用 |
---|---|
Monitor(MON) | 維護集群狀態、管理元數據 |
Manager(MGR) | 提供額外的監控和管理功能 |
OSD(Object Storage Daemon) | 負責存儲數據,每個硬盤一個 OSD |
Metadata Server(MDS) | 僅用于 CephFS 文件存儲 |
RADOS(Reliable Autonomic Distributed Object Store) | Ceph 的核心存儲引擎 |
📌 Ceph 主要有三種存儲類型:
-
RBD(RADOS Block Device) → VM 磁盤存儲(PVE 推薦)
-
CephFS(Ceph Filesystem) → 文件共享存儲
-
RGW(RADOS Gateway) → S3 兼容對象存儲
2. PVE 中部署 Ceph
📌 2.1 硬件要求
-
至少 3 個 PVE 節點(建議 5 個)
-
每個節點至少 1 塊 SSD/HDD(用于 OSD)
-
高性能網絡(10Gbps 推薦)
-
獨立 Ceph 網絡(Public 和 Cluster Network)
📌 2.2 安裝 Ceph
📍 在 PVE Web 界面
-
進入“Datacenter” → “Ceph”
-
點擊 “Install Ceph”,選擇 版本
-
等待安裝完成
📍 或者在 CLI 手動安裝
pveceph install
3. 配置 Ceph
📌 3.1 創建 Monitor(MON)
📍 添加 MON 節點
pveceph mon create
?📍 檢查 MON 狀態
ceph mon dump
📌 3.2 創建 Manager(MGR)
📍 添加 MGR
pveceph mgr create
?📍 檢查 MGR 運行狀態
ceph mgr dump
📌 3.3 添加 OSD
📍 在 PVE Web 界面
-
進入“Ceph” → “OSD”
-
選擇 磁盤,點擊 創建 OSD
📍 或者使用 CLI
pveceph osd create /dev/sdX
?📍 檢查 OSD 狀態
ceph osd tree
📌 3.4 配置 Ceph 網絡
📍 編輯 /etc/pve/ceph.conf
[global]
public_network = 192.168.10.0/24
cluster_network = 192.168.20.0/24
?📍 重啟 Ceph
systemctl restart ceph*
4. 在 PVE 中使用 Ceph 存儲
📌 4.1 配置 RBD 存儲
📍 在 Web UI
-
進入“Datacenter” → “Storage”
-
添加存儲類型 → Ceph RBD
-
填寫 Pool 名稱(如
rbd
)
📍 或者 CLI 配置
pvesm add rbd ceph-rbd --pool rbd --content images
? 創建后,VM 磁盤就可以直接存儲到 Ceph 了
📌 4.2 配置 CephFS 共享存儲
📍 創建 CephFS
ceph fs new cephfs cephfs_metadata cephfs_data
?📍 在 PVE 添加存儲
pvesm add cephfs cephfs --monhost 192.168.10.1
?? CephFS 可用于 VM 備份 / 共享數據
5. 監控和優化
📍 查看 Ceph 狀態
ceph -s
📍 查看存儲使用情況
ceph df
?📍 優化 PG(Placement Groups)
ceph osd pool set rbd pg_num 128
ceph osd pool set rbd pgp_num 128
6. 總結
? Ceph 適用于 高可用存儲,支持 VM 遷移
? Ceph RBD(塊存儲) 是 PVE 推薦的存儲方式
? CephFS 適用于文件共享,如 VM 備份
? 需要至少 3 臺 PVE 服務器,建議 5 臺以上
? 建議使用 10Gbps 網絡,提升性能
🚀 如果你想構建高可用 PVE 集群,Ceph 是最佳選擇!