分享一些处理大模型幻觉的心得 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要在回答技术问题时复制粘贴 AI 生成的内容
cxd8190102

分享一些处理大模型幻觉的心得

  •  
  •   cxd8190102 6 天前 1914 次点击

    上个月,我交给大模型几份报告,让它分析用户家庭符不符合签证办理条件,它只能给出前面男主人的分析结果,后面的女主人和儿子的情况完全被忘了。我想让大模型帮我填写一下签证申请表,结果它要么识别不了申请表的字段,要么就是填错了,根本没法用。

    后面我研究了一下,简单来说就是,大模型在处理复杂表格时,对“值”的理解远优于对“结构/位置”的理解,这是其核心短板。如果你只是发给它一份方案、几份简历,那它的理解力确实不错,很快就能像讲故事一样把要点讲出来。但是,在工作中,我们遇到的文件往往没有这么简单,它们有不同的章节,不同的层级,还有不同的文件格式,互相嵌套。例如一份财务报告,就包含了 8 大章 24 节 68 小点,其中还有 32 张配图以及 10 张表格,如此复杂的文档,会加速破坏 AI 理解能力。

    还有一个问题就是文章的篇幅。虽说现在大模型的上下文窗口,已经能容纳百万字的小说了,把《魔戒》三部曲放进去都不成问题,可“能容纳”跟“可理解”是两个问题。如今市面上大部分的模型,理解力都相当有限,篇幅一长,后面的内容它就读不进去了,或者读一半忘一半,这时候你让它写个人物小传,甚至问它一个事件评价,它的回答都是顾头不顾尾的。

    所以,平时我让大模型给我填表的时候也是这样的,它能填对内容,但是容易填错位置,而且越长的表格,错误越多,填错一个位置,手动修改特别麻烦,不如人工填了。

    而且,这种问题,还是“不分模型”的。市面上有名的模型我都尝试过,或多或少都存在这个问题,越是能力差的模型,到后面越明显。

    https://imgur.com/a/Guu8GR2

    问题说到这里,那该怎么解决呢?

    指望大模型自己进化?那恐怕是指望不上了。识别结构和层级这种事情,跟大模型“Next Token Prediction”的底层范式不一致,无论怎么进化,大模型都是要从头到尾进行识别,而非基于结构层级。

    使用传统软件解决方案?传统软件不够智能,成本对于小公司来说也太高了。而且,到目前我也没有找到特别合适的方案。

    总不能回归人力手搓吧?

    所以,我的解决方案就是,将计就计,根据大模型的这种特性,自己做了一个填表工具,去补齐它的短板。

    思路是这样的:

    首先,识别并拆分文档中的独立章节,然后分批将章节内容提交给大模型处理,避免大模型“理解力超载”。其次,填表工具会把“工作经历”、“学习经历”这种需要连续多行输入的区域给识别出来,并把它们跟其它部分拆开,避免大模型混淆。此外,填表工具还会根据用户画像(如基本信息等)自动判断哪些地方是需要填的,哪些地方不用填,提高干活的精确度。

    以一张大约 200 个空格的用户信息表为例,有了工具的加持,现在大模型 1 分钟就填完了,比之前快了 5-6 倍,节省了大量的 Token ;准确率也达到 90%以上,秒杀单独使用大模型填表的时候。更不用说它还能识别不同类型的资料,省得我在不同的文档格式之间转来转去了。

    大家觉得有用的话,可以试用一下: https://www.gosnapfill.cn/landing?utm_source=v2ex

    6 条回复    2026-04-20 09:23:58 +08:00
    cxd8190102
        1
    cxd8190102  
    OP
       6 天前
    有问题欢迎留言。
    easylee
        2
    easylee  
       6 天前
    思路描述部分说的,其实就是工程中最常见的拆分,有些也叫做思维连( Prompt Chaining )。

    有必要的话其实还可以进一步加上反思模式,这也是当前比较好的 Agent 常用形式。
    cxd8190102
        3
    cxd8190102  
    OP
       5 天前
    @easylee #2 可以的,很好的建议。还有就是,我没有采用传统大模型的“按字数打断”的拆分方法,而是采用了树形结构的理解范式,保留了源文档的结构层级,所以搜索起来更精准。
    Mantext1989
        4
    Mantext1989  
       5 天前 via iPhone
    简单想了一下,针对这种场景是不是可以把文档先交给 embedding 模型处理并存入向量数据库,然后再让 LLM 根据要填的表格里面的字段到向量数据库取回相应的数据
    teaguexiao
        5
    teaguexiao  
       5 天前
    结构化拆分这个思路对,但更根本的原因是 LLM 的注意力在长上下文里会严重衰减,所以把文档按语义边界切小块再处理,比什么 prompt 技巧都管用。
    GoogolChrome111
        6
    GoogolChrome111  
       4 天前
    结构化拆分可能是目前最好的解决方法了
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     1092 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 37ms UTC 18:20 PVG 02:20 LAX 11:20 JFK 14:20
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86