这是一个创建于 116 天前的主题,其中的信息可能已经有所发展或是发生改变。
公司现在还没有引入飞书等平台,想在小组内试搭一套 RAG 平台,内网有 QWEN 的大模型接口,于是有了下述方案,大家看看是否合适,运行硬件配置不高,无单独 GPU:
1.传统知识库用基于 MARKDOWN 格式的 OUTLINE ,支持团队协作,单点登录,缺点是没有离线功能。
2.RAG 知识库平台和 AGENT 平台选用 FASTGPT ,没有用 DIFY ,感觉 DIFY 要重一点,也没用只聚焦于 RAG 的 MAXKB 。
1 ) LLM 用内网已经有的 QWEN 大模型
2 ) embedding 用本地的 m3e
3 ) rerank 模型也用本地的 bge rerank 模型
3.胶水准备用 N8N ,从 OUTLINE 把知识定期推送到 FASTGPT 。
4.最后是文档的问答模式准备用 NGINX 做拦截嵌入,在 OUTLINE 文档页面做个弹窗把上下文传到后端 FASTPGT 。
3 条回复 2026-01-14 13:52:38 +08:00  | | 1 isSamle 2025 年 12 月 31 日 自建内网 RAG 知识库和 AGENT 平台的话,你就得考虑后期二开的可行性,基于技术栈考虑,我选的是 → [MAXKB](/t/1177791) |
 | | 3 dandankele 1 月 14 日 为啥又要搞个 n8n 做知识的导入?当时是出于啥原因考虑的? fastgpt 不能完成吗?
最后的问答模式是什么意思?你的 RAG 应用要嵌入在 OUTLINE 文档页面中使用是吗? |