| RSS |

| huggingface-cli hf_xet 插件经常报 dns error 是咋回事 guoguobaba Jun 16, 2025 Lastly replied by coefuqin | 1 |
| 目前性价比最高的跑本地大模型显卡是? lemonTreeTop Aug 16, 2025 Lastly replied by goodboy95 | 18 |
| 多卡部署 QWQ Q8 是否可行 PalWorld Jun 16, 2025 Lastly replied by coefuqin | 3 |
| intel 显卡跑 Qwen3-14B-GGUF:Q8_0 abc0123xyz Jun 10, 2025 Lastly replied by coefuqin | 6 |
| 学习大模型的显卡怎么选型 cuteshell Jun 3, 2025 Lastly replied by coefuqin | 30 |
| 求本地部署的 AI 推荐~ WessonC Jun 1, 2025 Lastly replied by happybabys | 11 |
| 本地 vllm 部署 Qwen2.5-7B-Instruct 在 stream 模式下 tool_calls 参数 JSON 字符串未正常闭合 BenchWidth Aug 18, 2025 Lastly replied by DefoliationM | 3 |
| 本地部署视觉大模型,用于 OCR 中文文献+翻译,最好的模型是什么? villivateur May 31, 2025 Lastly replied by mili100 |
| 有老哥用 llm 跑本地代码模型的吗,用的什么显卡,效果怎么样呢 king836334258123 Apr 17, 2025 | | |
| 有在生产上跑私有化 DeepSeek 70B 大模型的吗?什么配置的机器支持?并发多少呢? yiyiniu Apr 18, 2025 Lastly replied by coefuqin | 2 |
| 跑 AI 大模型,到底是用 4090 魔改版好还是 Mac studio 好? kisshere Apr 15, 2025 Lastly replied by egen | 9 |
| 使用 dify 时代码如何管理? frankyzf Aug 1, 2025 Lastly replied by ericguo | 8 |
| 想自己上手跑跑 LLM 大模型,求推荐显卡和主机配置 limatrix81 Apr 8, 2025 Lastly replied by coefuqin | 28 |
| 本地 llama.cpp 和 ollama 跑 相同 模型,效果不一样 paranoiagu Apr 7, 2025 Lastly replied by tool3d | 7 |