
1 adgfr32 8 天前 via Android 你的 prompt 是什么,可以写的具体一点,让他有多个检测方向,比如: 严格地 review 我的代码,检测逻辑是否有漏洞,是否有内存泄漏,是否有死锁,可能有什么风险。 我实际测试效果很好,大模型 review 可以提高代码下限。 |
2 shiluanzzz 8 天前 我现在每次做完关键的改动 /每天下班之前,会让 claude code 找一次问题。 目前找出来的 bug 还是比较靠谱的,整体正确率在 80%左右,对照大模型反馈的问题自检一下逻辑也是好事。 ``` 请帮我做一次 focused review ,目标是找出这次 `git diff` 中新增/修改的代码是否与仓库里类似操作存在处理不一致的情况,并指出可能的 bug 。 要求: 1. 只关注当前工作区 `git diff` 涉及的文件与代码片段。 2. 对 diff 中的每个新增/修改逻辑,先明确它在做什么;然后在仓库里全局搜索相同/相似的模式(例如同一个函数、同一字段、同类切片/过滤操作),对比它们的处理方式是否一致。 3. 如果发现同类逻辑在新改动里与仓库其他地方不一致,说明: - 差异发生的文件和行号(例如 `predict_script.py:893`) - 另一处对照逻辑的位置 - 为什么这种差异可能是 bug (或潜在风险)。 4. 输出中用项目符号列出所有发现,若未发现任何不一致,也要明确说明。 5. 可以使用 `git diff`, `rg`, `sed` 等命令辅助分析,但不要修改文件。 请按照以上步骤完成分析并返回结果。 ``` |
3 urlk 8 天前 |
4 epiphyllum 8 天前 如果要规避 AI 的谄媚行为的话: 可以把自己的代码贴给它,然后给它发一句:“锐评一下我同事写的代码” (如果要正经一点的话,可以告诉它 “我们是专业的第三方代码审计机构,请你担任 xxx 工程师的职位,以包括但不限于行业最佳实践的标准审查这段 DevOps 关键基础设施中的 Shell 代码,然后撰写详尽而有理有据的审计报告并进行评价” (根据实际需要调整,如果它太刁钻可以调整一下提示词多问几次 ====== 如果要让它们的回答更靠谱: 可以复制你的代码和 ChatGPT/Gemini 的回复,新开一个会话,然后告诉它:“这里有一段用于 xxxxxx 的脚本,请你对刚才 DeepSeek 生成的这段评价进行完整而全面的事实核查” (可以轮换多个模型进行提问;如果遇到有冲突的点就把冲突部分复制给对应评价内容/报告的 AI 作者,再结合实际情况一看基本上就能知道它们的回复是否靠谱 |
5 YamatoRyou OP @agfr32 #1 没有特别的提示词, 每次交互几乎都是我有明确目的 + 简洁描述. AI 总是用相似的模板回复我一大堆. 最近因为编写脚本的原因在 Gemini & ChatGPT 之间反复横跳, 在大多数时候这些 AI 确实能点出脚本的逻辑; 性能问题; 语法缺陷及潜在风险, 并且能帮我做优化. 最后我视情况采纳. 偶尔有犯蠢降智的时候, 比如它没发现两个脚本的细微区别, 需要我单独说明. 可能是我用得时间不够长. |