
1 liu731 PRO |
2 suitts Feb 10, 2025 ollama 下载直连能跑满我千兆宽带 |
5 mrleft OP |
6 yelog Feb 10, 2025 之前写了一篇关于离线安装及离线加载模型的 https://yelog.org/2024/10/10/install-ollama-offline/, 可以参考一下 |
7 Picmen Feb 10, 2025 降速了 CTRL+C 后重新 ollama pull 就满速了,进度是续上的,当然我只这么下过两次,不一定有效:) |
9 weiwoxinyou Feb 10, 2025 via Android 故意让它超时,然后会暴露出一个 url ,手动下载 url 的文件就是满速的了 |
10 ooh Feb 10, 2025 @mrleft 怎么我和你是反的,我是走代理开始十几兆每秒,但是真的就几秒后面就开始鬼打墙,下不完一个 100M 的文件,反复在那里 0-80M-0-80M-0-80M....我直接连手机移动网络比较快。 |
11 ziyeziye Feb 10, 2025 自己手动去下载模型,然后在模型同目录写一个 ModelFile 文件,文件内容如下: |
12 reeco Feb 10, 2025 直接 huggingface 下载模型,llama.cpp 跑一下,一样的 |
13 ziyeziye Feb 10, 2025 自己手动去下载模型(如 testModel.gguf),然后在模型同目录写一个 ModelFile 文件, 文件内容如下: FROM ./testModel.gguf 然后终端执行 ollama create testModel -f ModelFile 最后 ollama run testModel 或者用第三方 chatbox 都行 |