
利用 langchain + ChatGLM-6B 开发了可以基于本地文件内容进行对话的应用,具体形式类似 chatpdf 等利用 chatgpt API 与文件对话的应用。
实现过程中 embedding 与 LLM 模型均使用开源 HuggingFace 模型,因此可在下载模型参数文件后进行离线部署。
1 perfectar Apr 6, 2023 不错,顶一个! |
2 1r5b6rRCaViA78f6 Apr 6, 2023 via Android 感谢分享~ |
3 daddyLi Apr 6, 2023 顶,已 star |
4 hellojay Apr 6, 2023 如果要本地跑起来这个 LLM ,大概需要的配置能说下吗 |
5 infinityv Apr 6, 2023 via iPhone 是不是类似 gpt index |
6 littlepanda0716 OP @infinityv 之前有考虑用 gpt index 做实现,但是后面发现 gpt index 不太灵活,就直接利用 langchain 做实现了,本质上类似于用 gpt index 做的应用。 |
7 littlepanda0716 OP @hellojay LLM 方面占用资源可以参考 ChatGLM 硬件需求: https://github.com/THUDM/ChatGLM-6B/blob/main/README.md#%E7%A1%AC%E4%BB%B6%E9%9C%80%E6%B1%82 embedding 模型在本项目中选用 GanymedeNil/text2vec-large-chinese ,在 GPU 上运行时约需要 3GB 显存,也可修改为 CPU 上运行或替换为其他 huggingface 中的 embedding 模型 |
8 elppa Apr 6, 2023 不错,顶一个,电脑配置要求多少 ? |
9 WEAlex Apr 6, 2023 这个是可以训练本地专业方向知识的模型?没看到哪里可以学习本地知识的地方呢 |
10 uilvn Apr 6, 2023 已 star |
11 cwyalpha Apr 6, 2023 via iPhone 是不是理论上 colab 也行 |
12 uilvn Apr 6, 2023 @littlepanda0716 在 colab 上运行失败了,装载模型时内存容量超过 12G 被干掉了。有 colabPro 的兄弟可以试试 |
13 niuzhuang Apr 6, 2023 很棒,关注了 |
14 littlepanda0716 OP @WEAlex 不是再训练 是利用本地文档+embedding 构建索引,然后用问句语义到索引中匹配相近段落,再把段落作为上下文和问题一起提供给 llm |
15 littlepanda0716 OP @elppa chatglm 硬件需求可参考 https://github.com/THUDM/ChatGLM-6B#%E7%A1%AC%E4%BB%B6%E9%9C%80%E6%B1%82 除此之外 embedding 如果也在 gpu 上运行也需要 3G 左右的显存 |
17 littlepanda0716 OP |
18 superbai May 22, 2023 歪个楼,请问 github readme 里的流程图是用什么画的呀 |
19 kanchi240 Jun 14, 2023 |