
本人不是做 web 相关开发的,最近准备自己部署个 gitlab 玩,然后用 nginx forward 到子目录,因为不太熟悉所以直接问 LLM 要配置,结果各种不行,我各种贴错误贴配置问来问去,绕了一堆弯路。 最后,受不了了,看了几篇 forward 的文档,改了大约 8 个字符搞定。。。
1 xubeiyan 1 天前 via Android 是的,nginx 配置上的一个字符的差别就会导致不同的结果。但 LLM 的原理决定了这俩差不多( |
2 sengle 1 天前 好奇用的什么 LLM |
4 penzi 14 小时 54 分钟前 via iPhone llm 的垃圾程度取决于使用者的水平 |
6 ke1vin 12 小时 38 分钟前 via iPhone 几句话就把 llm 打死了。不把用什么模型,怎么提问的发出来大家怎么给你评判? |
8 droppedbytech 12 小时 18 分钟前 @shylockhg 太对了,效果不好那就是: 1. 你不会用,skill issues! 2. 用最好的模型,别用 o4mini/国产模型/...,blahblah ,虽然我也不知道怎么算「最好」的模型 3. 继续当你的纺织工人吧,纺织机会让你们都被淘汰! 4. .... 叠甲,我觉得 LLM 很有用,但很显然没有像有些人吹的那么有用 |
9 Alias4ck 11 小时 43 分钟前 贴错误配置 不如用 Agent(cc/codex) 它自己去搜和运行命令观察行为,据我所知贴配置它回答的答非所问大部分是由于你的上下文不够完整 |
10 DefoliationM 8 小时 58 分钟前 现在都是这样,辅助而已,不能全信,所以让它写完代码,还是要自己审核的。不要真以为 llm 能替代正经程序员了。 |
11 yidinghe 8 小时 25 分钟前 基本上就是你不会问,从帖子内容也看得出来,不知道如何选择和表达重要的信息,也不知道怎么描述经过,只会说“各种不行”。我猜如果把你对 AI 的提问放到技术论坛发帖,看帖的人估计也是懵逼的。 |
12 HeyHudy 2 小时 5 分钟前 talk is cheap, show me your prompt |