装了 Windows 的主机,要用 Linux 跑大模型,推荐 wsl 还是 Ubuntu 双系统来跑呢? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Distributions
Ubuntu
Fedora
CentOS
中文资源站
网易开源镜像站
meattball
V2EX    Linux

装了 Windows 的主机,要用 Linux 跑大模型,推荐 wsl 还是 Ubuntu 双系统来跑呢?

  •  
  •   meattball 2024-09-27 19:02:54 +08:00 via Android 4308 次点击
    这是一个创建于 381 天前的主题,其中的信息可能已经有所发展或是发生改变。
    主要考虑 wsl 这种方式会不会有什么性能损失呢?
    22 条回复    2024-09-29 11:30:59 +08:00
    ferock
        1
    ferock  
    PRO
       2024-09-27 19:11:00 +08:00 via iPhone
    实际上,没有…但是,很多硬件不一定能调用,比如 wsl 不能调用声卡…
    106npo
        2
    106npo  
       2024-09-27 19:12:05 +08:00 via Android
    跑大模型 wsl 没啥问题
    Oct31Dec25
        3
    Oct31Dec25  
       2024-09-27 19:13:58 +08:00
    跑大模型用 WSL ,自带显卡驱动,没感觉到性能损耗。
    tap91624
        4
    tap91624  
       2024-09-27 19:43:37 +08:00
    wsl 多卡有坑,其他还好
    lianyanjiajia
        5
    lianyanjiajia  
       2024-09-27 22:08:46 +08:00
    wsl 有很多坑...
    jackmod
        6
    jackmod  
       2024-09-27 22:11:52 +08:00

    个人用户直接走 docker desktop 就能用。
    商业用户……每月 5 刀的专业版好像就合法。
    jackmod
        7
    jackmod  
       2024-09-27 22:19:49 +08:00
    直接上 wsl 是官方支持的 https://learn.microsoft.com/en-us/windows/ai/directml/gpu-cuda-in-wsl
    不过用纯 linux 版的 docker 好像连不上显卡,之前试过一次失败了,/dev 里也没找到像那么回事的玩意,大概是我的知识盲区。wsl 里 nvidia-smi 是一定能用的,有机会 strace 一下,希望能够发现些什么。
    huluhulu
        8
    huluhulu  
       2024-09-27 23:13:58 +08:00
    windows+wsl 很舒服,和 windows 共用显卡,windows 玩游戏的同时后面跑模型,互不耽误。
    需要新环境的时候直接复制一个配置好的 wsl 镜像,很方便,每个环境真正做到互不影响。
    meattball
        9
    meattball  
    OP
       2024-09-27 23:28:09 +08:00 via Android
    @tap91624 多卡有坑啊,能具体说说吗。我正好是两张 4080 。。。nvidia-smi 也能看见两张 4080 。
    meattball
        10
    meattball  
    OP
       2024-09-27 23:28:28 +08:00 via Android
    主要是帮同学配的环境,还是希望能好用点
    meattball
        11
    meattball  
    OP
       2024-09-27 23:41:54 +08:00 via Android
    @tap91624 @lianyanjiajia 刚刚查看了 nvidia 文档,说 Concurrent CPU/GPU access is not supported.,就是说不支持用多卡一起跑算力是吗
    hez2010
        12
    hez2010  
       2024-09-28 06:12:58 +08:00 via Android
    用 WSL 没啥问题,我上个月刚刚用 wsl finetune 了 llama ,全程丝滑。
    among
        13
    among  
       2024-09-28 09:28:45 +08:00
    wsl 的 nvidia-smi 可以看到。但是 docker 中使用的时候,发现无法占用显存。
    最后还是放弃了。
    beginor
        14
    beginor  
       2024-09-28 11:00:18 +08:00
    测试/开发用 wsl 应该没什么问题,生产环境建议直接上 Linux 。
    qping
        15
    qping  
       2024-09-28 11:25:29 +08:00
    纯 windows 就不能跑大模型吗,没折腾过,想了解下
    Nosub
        16
    Nosub  
       2024-09-28 12:42:39 +08:00
    @qping 可以试试虚拟机,跑一个玩玩,几乎没有任何硬件要求,当然速度慢;

    使用 Ollama 和 AnythingLLM 搭建本地 LLM 和知识库
    https://nosub.net/posts/p/219
    qping
        17
    qping  
       2024-09-28 13:42:03 +08:00 via Android
    @Nosub AnythingLLM 训练模式 属于 fine tuning 吗
    fox0001
        18
    fox0001  
       2024-09-28 13:47:06 +08:00 via Android
    如果内存或硬盘占用比较大,建议用实体机装 Linux 来跑。试过 WSL 跑模型,超出 WSL 的硬盘容量限制,导致 WSL 里的系统崩了,只能重装。还好有备份……
    tubowen
        19
    tubowen  
       2024-09-28 15:33:31 +08:00 via Android
    wsl 不好用,之前想在 wsl 上面用 docker 呢,还不如 VMware 虚拟机里面跑 docker ,坑很多
    ysc3839
        20
    ysc3839  
       2024-09-28 16:14:49 +08:00 via Android
    我选择再装个 Arch Linux 。个人不太接受 WSL2 ,因为 Hyper-V 虚拟化感觉上会影响主系统性能。
    qping
        21
    qping  
       2024-09-29 11:12:54 +08:00
    @Nosub 折腾了下,anythingLLM 还怪好用的
    看了下属于 RAG 方案
    meattball
        22
    meattball  
    OP
       2024-09-29 11:30:59 +08:00 via Android
    谢谢家人们,已经在 windows 上直接跑模型了
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     3026 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 25ms UTC 13:37 PVG 21:37 LAX 06:37 JFK 09:37
    Do have faith in what you're doing.
    ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86