有没有离线的代码补全软件? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要在回答技术问题时复制粘贴 AI 生成的内容
YVAN7123
V2EX    程序员

有没有离线的代码补全软件?

  •  
  •   YVAN7123 277 天前 5086 次点击
    这是一个创建于 277 天前的主题,其中的信息可能已经有所发展或是发生改变。

    背景

    • 内网离线开发
    • 开发的一般是大数据组件相关的内容
    • 有部分源码
    • 由于是华为全套大数据组件, 外网没有环境,无法在外网开发

    期望

    • 把源码或者其他相关代码扔到 ai 里,
    • 写代码的时候给我提醒补全
    • 用 idea 和 vscode

    有没有相关的工具可以推荐一下。

    29 条回复    2025-01-15 15:01:30 +08:00
    irrigate2554
        1
    irrigate2554  
       277 天前
    昨天刚看到一个站内人的项目: https://github.com/TabbyML/tabby 模型下载好后应该可以离线使用
    securityCoding
        2
    securityCoding  
       277 天前
    ollama 跑一个?
    yunyuyuan
        3
    yunyuyuan  
       277 天前   1
    ollama+continue+openwebui
    chairuosen
        4
    chairuosen  
       277 天前
    本机最大也就跑个 32b 的模型,跟在线 api 效果差得多
    miniliuke
        5
    miniliuke  
       277 天前
    idea2024 不是自带吗?就是能力一般就是了
    clemente
        6
    clemente  
       277 天前
    @chairuosen 今年不好说 嘿嘿
    lavvrence
        7
    lavvrence  
       277 天前
    Ollama + continue.
    话说 deepseek v3 已经支持 Ollama 了。
    ganbuliao
        8
    ganbuliao  
       277 天前
    vscode server
    配置 copilot 走本地网络
    {
    "remote.extensionKind": {
    "GitHub.copilot": [
    "ui"
    ],
    "GitHub.copilot-chat": ["ui"],

    "pub.name": [
    "ui"
    ]
    }
    }
    lyonll
        9
    lyonll  
       277 天前
    @yunyuyuan 有模型推荐么,现在用 starcoder2+qwen2.5
    tomyark123
        10
    tomyark123  
       277 天前
    lsp 不是离线的吗
    mioktiar56
        11
    mioktiar56  
       277 天前
    离线了还怎么赚你钱
    spike0100
        12
    spike0100  
       277 天前
    @jaylee4869 话说 671b 模型跑起来需要什么配置的机器啊
    xing7673
        13
    xing7673  
       277 天前   2
    @spike0100 6 个 64g mac mini 或 3 个 m1u 128g mac studio 或 2 个 m2u 192 mac studio 或 4*80g a800+显卡 或者 8 * 48g 4090

    至少要 7 万+的预算
    isSamle
        14
    isSamle  
       277 天前
    8 * 48g 4090 何止 7W+ @xing7673
    xing7673
        15
    xing7673  
       277 天前
    @isSamle 嘛,最低我是按照 6*64g macmini 算的
    windgreen
        16
    windgreen  
       277 天前
    ollama + codegeex + visual code
    yangth
        17
    yangth  
       277 天前
    本机跑不动的,能跑动的不是智能是智障
    yangth
        18
    yangth  
       277 天前
    如果有实力,可以自建机房
    yuedashi
        19
    yuedashi  
       277 天前 via Android
    lmstudio
    PolarisY
        20
    PolarisY  
       277 天前
    或许你可以研究研究内网穿透
    Genshin2020
        21
    Genshin2020  
       277 天前
    ollama
    oncethink
        22
    oncethink  
       277 天前
    推荐 tabby ,可以本地代码问答和,如果内存在 16GB 或以下,建议用 1.5b 的模型,再大速度就很慢了。

    如果使用 macOS ,直接用 brew instal tabbyml/tabby/tabby ,然后访问后台注册账户,在设置界面拿到 token ,然后在 vscode 中装上 tabby 扩展,填入本地 tabby 服务地址和 token

    如果使用 ollama 做后端,可以参考下面配置:

    下面是一个使用 qwen2.5-coder:7b 的参考配置,你需要先用 ollama pull qwen2.5-coder:7b-base 和 qwen2.5-coder:7b ,前者适合做补全,后者适合做问答。

    ~/.tabby/config.toml
    ```
    # Completion model
    [model.completion.http]
    kind = "ollama/completion"
    model_name = "qwen2.5-coder:7b-base"
    api_endpoint = "http://localhost:11434"
    # prompt_template 不同的模型配置可能不一样,需要自己注意一下
    prompt_template = "<|fim_prefix|>{prefix}<|fim_suffix|>{suffix}<|fim_middle|>"

    # Embedding model
    [model.embedding.http]
    kind = "ollama/embedding"
    model_name = "bge-m3:latest"
    api_endpoint = "http://localhost:11434"

    # Chat model
    [model.chat.http]
    kind = "openai/chat"
    model_name = "qwen2.5-coder:7b"
    api_endpoint = "http://localhost:11434/v1"
    ```
    HK560
        23
    HK560  
       277 天前
    同问,为了代码安全公司想要本地部署 ai 模型服务来辅助开发,目前就在找这种类似的解决方案,
    chenJianRong123
        24
    chenJianRong123  
       277 天前
    Idea 最新版,不是可以补全吗
    raycool
        25
    raycool  
       277 天前
    @HK560 他们不都有私有化部署方案吗?一年几十万。
    blackeeper
        26
    blackeeper  
       277 天前
    docker 运行 openWebUI + ollama ,然后 vscode + continue 插件,离线写代码
    dengji85
        27
    dengji85  
       276 天前
    @PolarisY 内网都是隔离的,没有外网,怎么穿透
    YVAN7123
        28
    YVAN7123  
    OP
       276 天前
    @PolarisY #20 给叔叔网 内网穿透 你真想得到啊
    kibble5788
        29
    kibble5788  
       276 天前
    https://code.fittentech.com/ 支持私有化部署,收费的,不差钱可以看看
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     883 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 26ms UTC 21:18 PVG 05:18 LAX 14:18 JFK 17:18
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86