部署了一个 Llama3 [8B 和 70B] 欢迎来尝试 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
爱意满满的作品展示区。
xingfukuaile
V2EX    分享创造

部署了一个 Llama3 [8B 和 70B] 欢迎来尝试

  •  1
     
  •   xingfukuaile 2024-04-23 12:43:14 +08:00 4668 次点击
    这是一个创建于 535 天前的主题,其中的信息可能已经有所发展或是发生改变。

    一键直达

    8B 版本很惊喜,回复很快,70B 的回复有点慢

    Imgur2

    第 1 条附言    2024-04-24 17:25:41 +08:00
    感谢 18 楼提供的方法,已添加系统回复中文规则
    第 2 条附言    2024-04-26 23:36:00 +08:00

    现在 添加了 中国联通AI创新中心 的模型

    但是不确定是转换模型和写Modelfile的存在错误还是模型本来如此,它表现的非常糟糕

    第 3 条附言    2024-04-27 11:56:17 +08:00

    联通这个模型已上传到 Ollama 社区 ,ollam/unichat-llama3-chinese-8b

    第 4 条附言    2024-04-29 00:21:27 +08:00

    现在添加了 清华博士王慎执微调的Llama3模型,感觉还不错

    https://ossk.cc/file/3b4444113a25ada3faf21.png

    34 条回复    2024-07-20 00:17:38 +08:00
    codingBug
        1
    codingBug  
       2024-04-23 12:45:42 +08:00 via Android
    能问问是部署在哪里的吗?
    blackwhites1977
        2
    blackwhites1977  
       2024-04-23 12:47:08 +08:00
    用的是啥框架啊?
    haiku
        3
    haiku  
       2024-04-23 13:19:49 +08:00 via Android
    groq 应该是目前最快的服务,定制芯片
    cwcc
        4
    cwcc  
       2024-04-23 13:21:39 +08:00
    llama3 不微调的话还老是回复英语,即使强制 prompts 中文也老是忘记。等个微调中文的。
    zackzergzeng
        5
    zackzergzeng  
       2024-04-23 13:29:04 +08:00
    楼主审批通过了?UI 是 Llama3 自带的吗?
    goodryb
        6
    goodryb  
       2024-04-23 13:57:23 +08:00
    @cwcc 同感,本地跑个 8b ,感觉总是记不住中文
    NikoXu
        7
    NikoXu  
       2024-04-23 15:33:49 +08:00
    ollama 吧
    NikoXu
        8
    NikoXu  
       2024-04-23 15:34:23 +08:00
    70b 用的什么配置的机器 ?
    gongquanlin
        9
    gongquanlin  
       2024-04-23 16:09:17 +08:00
    翻译方面 80b 够用了
    gongquanlin
        10
    gongquanlin  
       2024-04-23 16:09:33 +08:00
    8b ,不是 80b 。而且效果不错
    @gongquanlin
    Hansah
        11
    Hansah  
       2024-04-23 17:59:16 +08:00
    测试了一下,好像比 3.5 略微聪明。8B 的话大概要多少显存?
    zsxzy
        12
    zsxzy  
       2024-04-23 18:13:06 +08:00
    我也部署了一个, 在 3060 6G , 跑得很慢
    john990
        13
    john990  
       2024-04-23 19:38:40 +08:00
    @gongquanlin #10 我试过之后,llama3 不管是 8b 还是 70b ,加上一些限定条件,翻译就完全崩了。
    中文翻译只能返回一些标点符号
    renmu
        14
    renmu  
       2024-04-23 19:56:06 +08:00 via Android
    llama 的中文语料太少了,中文还是等微调吧
    onionnews
        15
    onionnews  
       2024-04-23 20:38:52 +08:00
    @cwcc 用这个:Always response in Chinese, not English.
    qloog
        16
    qloog  
       2024-04-24 08:25:55 +08:00
    @goodryb
    @renmu 中文微调版: https://huggingface.co/UnicomLLM/Unichat-llama3-Chinese-8B

    由中国联通 AI 创新中心发布业界第一个 llama3 中文指令微调模型(全参数微调),2024 年 4 月 19 日 22 点上传
    goodryb
        17
    goodryb  
       2024-04-24 11:35:54 +08:00
    @qloog 看反馈似乎只是微调效果不是很好,看联通回复说可能二次训练,在等等吧
    moyuge
        18
    moyuge  
       2024-04-24 15:35:58 +08:00   1
    mkroen
        19
    mkroen  
       2024-04-24 16:22:58 +08:00
    部署了 llama-8b ,P40 大概占了 16G 显存,感觉英文交流的效果比中文交流好很多,也试了第三方的中文微调模型,效果还是不尽人意。不过速度比较快,效果相比于 Qwen1.5-7b 的效果要好。
    craiiz
        20
    craiiz  
       2024-04-25 09:29:53 +08:00
    有大神有网盘链接嘛,不知道为什么申请下来的网址运行 download.sh 时,选择完要下载的模型后就报错:Forbiden...
    xingfukuaile
        21
    xingfukuaile  
    OP
       2024-04-25 10:50:36 +08:00
    @codingBug 部署在 AutoDL 上了
    xingfukuaile
        22
    xingfukuaile  
    OP
       2024-04-25 10:50:57 +08:00
    @blackwhites1977 后端 Ollama, 前端 OpenWebui
    xingfukuaile
        23
    xingfukuaile  
    OP
       2024-04-25 10:51:36 +08:00
    @zackzergzeng UI 是 OpenWebUI, 审批没有,体验玩玩
    xingfukuaile
        24
    xingfukuaile  
    OP
       2024-04-25 10:51:53 +08:00
    @NikoXu 48G 的卡
    xingfukuaile
        25
    xingfukuaile  
    OP
       2024-04-25 10:53:21 +08:00
    @craiiz 一方面这个好像需要开代理,另一方面这个好像提提示没权限之后就要申请新的链接
    xingfukuaile
        26
    xingfukuaile  
    OP
       2024-04-25 11:01:57 +08:00
    @craiiz 可以试试这个 https://www.codewithgpu.com/m/Meta-Llama ,Meta Llama3 8B 和 8B Instruct 权重
    craiiz
        27
    craiiz  
       2024-04-25 11:07:36 +08:00
    @xingfukuaile 好的,感谢
    craiiz
        28
    craiiz  
       2024-04-25 11:09:19 +08:00
    @xingfukuaile 不清楚,llama2 的时候是可以很顺利地下载的,llama3 不知道为什么就不行。不知道是不是因为我地区选了 HK 。
    goodryb
        29
    goodryb  
       2024-04-25 11:34:25 +08:00
    @moyuge 试了下刚开始还正常,第二个问题就开始中英混合了

    >>> 红烧肉怎么做
    红烧肉是一道非常经典的中国菜肴,以下是它的做法:

    **材料**

    * 500g Pork Belly or Pork Ribs
    * 2 tablespoons Soy Sauce
    * 1 tablespoon Red Cooking Wine (or substitute with Red Vinegar)
    * 1 tablespoon Sugar
    * 2 cloves Garlic, minced
    * 2 tablespoons Ginger, sliced
    * 1 cup Chicken Broth
    * 1 tablespoon Cornstarch
    * Salt and Pepper, to taste
    * Scallions, chopped (optional)

    **做法**

    1. **准备材料**:将猪肉洗净,切成小块备用。
    2. **热油锅**:在大锅里加两三勺油,让它烧开。
    3. **下料**:将切好的猪肉下入油锅,不断翻动,使得猪肉表面均匀地着油。
    4. **添加调味料**:加入 Soy Sauce, Red Cooking Wine, Sugar, Garlic, Ginger ,和 Chicken Broth ,继续翻动使其充分混合。
    5. **制卤**:将 Cornstarch 和水混合成浓缩液,然后加入锅中,继续煮约 30 分钟,使得卤变得很 Thick 和 Rich 。
    6. **seasoning**:加盐和胡椒粉调味,使其适合自己的口味。
    7. **装盘**:将红烧肉装在碟子里,洒上一些 Scallions ,如果需要。

    ** Tips**:

    * 用高脂肪的猪肉来做红烧肉可以使得卤更加丰富和 tender 。
    * 在下料时不要让猪肉表面太干,因为这会导致最后的卤不够 Thick 。
    * 可以根据自己喜欢的程度增加或减少糖的量。

    **Tips**

    * 使用高脂肪猪肉可以使得卤更加丰富和 tender 。
    * 下料时不要让猪肉表面太干,这样可以确保最后的卤够 Thick 。
    * 可以根据自己的口味增加或减少糖的量。
    zackzergzeng
        30
    zackzergzeng  
       2024-04-25 16:04:08 +08:00
    @xingfukuaile #23 那在哪拿的代码?我申请了还没通过
    xingfukuaile
        31
    xingfukuaile  
    OP
       2024-04-25 16:50:27 +08:00
    @haiku 另外用了 IMartialBE/one-api 这个做网关
    xingfukuaile
        32
    xingfukuaile  
    OP
       2024-04-25 16:53:44 +08:00
    @zackzergzeng 我使用 ollama.com 部署的
    wsbqdyhm
        33
    wsbqdyhm  
       2024-05-22 13:40:25 +08:00
    @moyuge 可以简单说下怎么弄吗,新建一个 Modelfile 文件,内容编辑好复制进入, 运行出错啊
    daisyfloor
        34
    daisyfloor  
       2024-07-20 00:17:38 +08:00
    @zsxzy 你这个 3060 6G 能跑 gamma2:9b 么 以及 qwen2:7b 前者 我一调用 api ,就 500 错误,后者用着用着就 500 ,勉强能用。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     894 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 22ms UTC 20:52 PVG 04:52 LAX 13:52 JFK 16:52
    Do have faith in what you're doing.
    ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86