求指点, omv 使用虚拟机安装 pve, pve 创建的 lxc 无法连接网络 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要把任何和邀请码有关的内容发到 NAS 节点。

邀请码相关的内容请使用 /go/in 节点。

如果没有发送到 /go/in,那么会被移动到 /go/pointless 同时账号会被降权。如果持续触发这样的移动,会导致账号被禁用。
myml
V2EX    NAS

求指点, omv 使用虚拟机安装 pve, pve 创建的 lxc 无法连接网络

  •  
  • &nbs; myml 2024-08-01 22:29:14 +08:00 1987 次点击
    这是一个创建于 440 天前的主题,其中的信息可能已经有所发展或是发生改变。

    之前是在 pve 中安装 omv ,要使用 nfs 挂载 omv 的文件,感觉性能不好,写文件时 cpu 负载也满高。就试着反过来物理机安装 omv ,omv 再用 kvm 安装 pve(本来想直接用 omv 的 lxc ,但没有 pve 的 lxc 好用),这样可以用 virtp9 或 virtfs 将文件系统映射进去。

    网络配置是这样: 路由器 -物理网卡> ovm -桥接> pve -桥接> lxc100

    这时发现 lxc100 只能 ping 通 pve ,无法连接 ovm 和和路由器,笔记本也无法连接倒 lxc100 ,请教这种情况该怎么解决?

    第 1 条附言    2024-08-02 22:26:52 +08:00
    经过折腾问题已解决,不应该使用 omv kvm 插件中的网络菜单创建 macvtap 桥接。而应该在 omv 自己的网络菜单中创建桥接网络并绑定物理网卡。

    创建出的 br0 在 omv kmv 插件界面无法使用,要安装 virt-manager 使用这个图形界面功能,使用该工具连接到 omv ,就可以将 br0 添加到虚拟机了。
    第 2 条附言    2024-08-02 22:28:40 +08:00
    这样虚拟机和物理机可互相连通,虚拟机再创建 lxc 也可以和宿主机以及局域网的其他机器互通
    第 3 条附言    2024-08-03 00:30:49 +08:00
    性能对比

    virtiofs bench
    +------------------+-----------------+--------------+
    | ITEM | VALUE | COST |
    +------------------+-----------------+--------------+
    | Write big file | 341.15 MiB/s | 3.00 s/file |
    | Read big file | 1166.09 MiB/s | 0.88 s/file |
    | Write small file | 534.5 files/s | 1.87 ms/file |
    | Read small file | 1438.2 files/s | 0.70 ms/file |
    | Stat file | 14149.0 files/s | 0.07 ms/file |
    +------------------+-----------------+--------------+
    nfs bench
    +------------------+----------------+--------------+
    | ITEM | VALUE | COST |
    +------------------+----------------+--------------+
    | Write big file | 330.97 MiB/s | 3.09 s/file |
    | Read big file | 332.63 MiB/s | 3.08 s/file |
    | Write small file | 247.7 files/s | 4.04 ms/file |
    | Read small file | 611.9 files/s | 1.63 ms/file |
    | Stat file | 4729.0 files/s | 0.21 ms/file |
    +------------------+----------------+--------------+

    性能对比 virtiofs > nfs > virtp9
    12 条回复    2024-08-02 22:51:09 +08:00
    wheat0r
        1
    wheat0r  
       2024-08-01 22:44:23 +08:00
    套娃感觉性能不好,于是换一个姿势套娃,这是什么思路
    pagxir
        2
    pagxir  
       2024-08-02 00:12:38 +08:00
    是不是无线桥接了。
    myml
        3
    myml  
    OP
       2024-08-02 02:04:43 +08:00 via Android
    @wheat0r 我想的是物理机是可以使用非网络协议将文件系统挂载到虚拟机机,性能会好些,我也不想套娃的,奈何 omv 的 lxc 很难用
    myml
        4
    myml  
    OP
       2024-08-02 02:06:31 +08:00 via Android
    @pagxir 机器没有无线呀,物理机是一个 2.5G 的网卡,然后桥接到 pve 虚拟机,pve 再桥接到 lxc
    wheat0r
        5
    wheat0r  
       2024-08-02 02:37:28 +08:00
    esee
        6
    esee  
       2024-08-02 02:44:57 +08:00 via Android
    PvE 也可以提供 9P 给虚拟机挂载吧。
    thtznet
        7
    thtznet  
       2024-08-02 16:52:48 +08:00
    PVE 是专业的虚拟化平台,再怎么性能不行,综合来看还是会比用 OMV 当基础平台强多了。PVE 是可以直接将 SATA 总线映射给虚拟机的,正常情况下不会出现性能不行的场景。企业都是这样用的,对性能非常敏感的生产环境都没有问题,我不知道很多 Home NAS 用途的爱好者天天说的性能不行是不是大多都是心病而已?
    libook
        8
    libook  
       2024-08-02 16:55:22 +08:00
    没有虚拟化刚需不要用虚拟化平台,徒增维护难度和故障风险。
    myml
        9
    myml  
    OP
       2024-08-02 22:11:38 +08:00
    @esee 我是把 sata 直通给 omv 了,需要其他虚拟机使用 omv 的存储,这就没法用 9p 了
    myml
        10
    myml  
    OP
       2024-08-02 22:13:33 +08:00
    @libook 我其实没有多少什么虚拟化的需求,平常都是用 lxc podman 这些容器平台,所以才想这把宿主机换成 omv ,但 omv 的 lxc 管理远不如 pve 的
    myml
        11
    myml  
    OP
       2024-08-02 22:19:01 +08:00
    @thtznet 我之前是用 pve 把 sata 映射 omv 虚拟机了,硬盘管理是没问题了,但 pve 上的 lxc 想使用硬盘就需要用 nas 挂载,可能是我的 cpu 太弱了,当 lxc 里的 gitlab 跑 git 的时候,cpu 就会飙升,负载能达到几十。

    感觉卡的时候排查看到就是 git 和 nfs 占用的 cpu 。企业应该不会用 amd 3000g 这种 cpu...
    thtznet
        12
    thtznet  
       2024-08-02 22:51:09 +08:00
    @myml 存储就是存储,单独跑存储,虚拟化计算节点就单独跑一个服务器做计算节点,不要想着 All in one 。不要考虑啥电费什么的,几台电脑罢了,开 3 年电费还不如很多人一包烟贵,追求 all in one 大部分都是被网上的民科方案带偏了。都要跑 git 了,说明都是具有生产力的,在可以产出效益的生意面前,就是买几台 HPE 又能怎么样?
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     991 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 24ms UTC 18:41 PVG 02:41 LAX 11:41 JFK 14:41
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86