
今天用 Claude 问了个技术问题,结果它给我编了一大堆看起来特别专业的技术细节,什么逆向工程、虚拟化框架、GitHub 项目链接,说得有鼻子有眼的。
我多问了一句消息源是哪,它直接承认了:这些都是编的,为了让答案看起来合理就瞎编了一堆技术术语和引用。
Claude 在处理简体中文时可能会出现反蒸馏现象就是模型为了让答案显得更可信,会主动编造细节和来源。 还是幻觉问题?
想问问大家有没有遇到过类似情况?是不是简中确实更容易触发这种问题?还是说所有语言都一样,只是我运气不好?\n\n
1 6a708ab3 Mar 25 via Android |
2 Jackm Mar 25 资本家:不是我供不起全面算力,而是你们用不上这么优秀的工具。 |
3 codehz Mar 25 via Android 有没有可能是因为中文语料质量本来就很低 garbage in garbege out |
4 charles0 Mar 25 via iPhone 我在截图里没看到“反蒸馏”这个词,只看到一个很典型的 LLM 幻觉案例,这个词是不是你自己编的? |
5 cherryas Mar 25 投毒就老实承认投毒 |