
检索增强生成( RAG )是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型( LLM )用海量数据进行训练,使用数十亿个参数为回答问题、翻译语言和完成句子等任务生成原始输出。在 LLM 本就强大的功能基础上,RAG 将其扩展为能访问特定领域或组织的内部知识库,所有这些都无需重新训练模型。这是一种经济高效地改进 LLM 输出的方法,让它在各种情境下都能保持相关性、准确性和实用性。
---来自 AWS
1 mdb 2024-12-06 13:57:29 +08:00 前段时间试了下 maxkb ,感觉一般,不能进行全局性的总结,后面又试了下 lightrag ,但是一直没运行成功过,同问 |
2 RRRoger 2024-12-06 14:24:37 +08:00 bge-large-zh 做 embedding 模型 配合 bge-reranker-v2-m3 做 reranker 模型 weaviate 作为向量库 基于 dify 平台 目前感觉知识库的质量才是最关键的 |
3 luchenwei9266 2024-12-06 14:42:10 +08:00 ragflow |
4 Donaldo 2024-12-06 14:52:25 +08:00 lightrag ,但本地模型太慢了。 |
6 unco020511 2024-12-06 15:13:40 +08:00 dify |
7 npe 2024-12-06 16:51:03 +08:00 dify 吧,比 maxkb 灵活 |
8 dongdong12345 2024-12-06 16:58:33 +08:00 |
9 pengxiaoyu 2024-12-06 19:08:17 +08:00 dify |
10 c466934322 2024-12-06 20:02:33 +08:00 奇了怪了,大家怎么不推荐 fastgpt 了 |
11 mengyaoren 2024-12-06 22:45:24 +08:00 dify |
12 lower 2024-12-07 01:04:05 +08:00 langchat |
13 GeruzoniAnsasu 2024-12-07 01:14:58 +08:00 想问问楼上的推荐哪个能解决这个问题: RAG 只能 embed 知识库「内」的知识,但不能 embed 关于知识库「本身」的知识 嵌入 10 条 A 知识后 LLM 能查询 N(N<10) 条最接近 A 知识向量的内容,但无法回答「关于 A 的知识量有多少」 |
14 zqqian 2024-12-07 01:29:18 +08:00 RAG 效果还是不太好,AI 只能看见知识库里片面的数据,无法从一个全局的角度理解知识库中的知识 |
15 FleetingSound 2024-12-07 14:19:37 +08:00 privateGPT Milvus |
16 anyinlover 2024-12-07 16:32:05 +08:00 @GeruzoniAnsasu 关于 A 的知识量有多少不是 RAG 要解决的问题,如果是公域知识直接问 LLM ,如果是私域知识就只能扩展知识库本身了。 |
17 gitsuck 286 天前 @c466934322 开源知识库上限 30 ,用个 |
18 svtter OP 我用 llamaindex ,感觉还不错。 |