SD 要生成满意的图比我想象的难很多 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
iixy
0D
V2EX    Stable Diffusion

SD 要生成满意的图比我想象的难很多

  •  
  •   iixy 15 天前 2006 次点击
    我的需求就是 1:1 复刻我喜欢的动漫角色,因此我一直对于那种写一些提示词,生成八竿子打不着的图片没有任何兴趣,也许对某些人的写文配图是有用的。SD 可以自己训练 lora 使我看到了福音,因此就尝试了一下。

    第一步我只求还原度,跟原作一毛一样最好;第二步可以加些我想要的动作;第三步才是尝试 yellow 风。

    但是现在第一步我都觉得相当难了,为了还原我都是用 SD1.5 ,配原版动漫截图,生成出来的效果还是不满意。

    仔细想想,标签,图源,底模,提示词,采样方法那些杂七杂八的参数都会影响结果。随机性真是太大了,不愧是炼丹。我现在在想要不要放弃,这个学习成本都快赶上 3D 建模了。
    21 条回复    2025-10-28 13:08:44 +08:00
    Muniesa
        1
    Muniesa  
       15 天前
    动漫直接用光辉模型啊,自己训练当然复杂
    iixy
        2
    iixy  
    OP
       15 天前
    @Muniesa 光辉模型是哪个关键词,我试试。 但是我想要还原度所以才想自己训练。
    linch97
        3
    linch97  
       15 天前
    2025 年了怎么还在用 sd1.5 ,社区模型选 noob ,闭源付费的直接用 nai ,别折腾 sd1.5 了
    Muniesa
        4
    Muniesa  
       15 天前
    @iixy wai-illustrious-sdxl https://civitai.com/models/827184/wai-illustrious-sdxl
    也有 nsfw 模型
    iixy
        5
    iixy  
    OP
       15 天前
    @linch97 刚学,b 站说这个原始用这个。
    love060701
        6
    love060701  
       15 天前
    开源用 Flux 、SDXL 微调过的模型,闭源用 nano banana 、即梦 4.0 ,SD 已经彻底被淘汰了
    iixy
        7
    iixy  
    OP
       15 天前
    @Muniesa 好的谢谢
    linch97
        8
    linch97  
       15 天前
    @iixy #5 别看过时教程了,跑二次元直接选 noob ,是 sdxl 架构,基于 illustrious xl 0.1 训练的,就上楼上提的光辉。训练 lora 的要点和 sd1.5 基本互通。
    不想自己折腾开源模型就付费玩 nai ,上限和下限都更高,只是没那么自由
    qiaobeier
        9
    qiaobeier  
       15 天前
    @iixy #5 信息滞后了。
    jifengg
        10
    jifengg  
       15 天前
    如果回 comfyui ,建议可以试试 qwen-image-edit-2509 ,可以先在 https://chat.qwen.ai/ 这里体验一下。
    sairoa
        11
    sairoa  
       15 天前
    听楼上的用基于光辉的微调模型,然后选个作品多画风喜欢的画师,加进提示词里,然后角色名称就行,画师和角色提示词参考 danbooru ,目前来看除非特别新或特别冷门的角色,都直接出不用 lora 。
    iixy
        12
    iixy  
    OP
       15 天前
    @sairoa 国漫呢..
    rxmt
        13
    rxmt  
       15 天前
    我支撑设计团队用各种模型,不懂设计和视觉,单纯讨论一下。为啥现在还会用 sd1.5 做?是因为硬件跟不上么。目前我能接到的需求,基本都是 flux 系列、qwen-image 系列,做 lora 、工作流以及调上下文,另外 nano-banana 这种会找接口糊 web ui 出来。
    感觉 sd1.5 比较过时了,模型能力可能也比较弱,op 试试更新的?
    beefhotpot
        14
    beefhotpot  
       15 天前
    有很多网站支持在线训练模型的,甚至你想训练的模型已经有了,搜下就有
    iixy
        15
    iixy  
    OP
       15 天前
    @rxmt 因为 b 站 up 主说 1.5 最原始,干扰因素少。因为我不想要花里胡哨的风格,只想还原,所以就用这个了。
    haoooooooo
        16
    haoooooooo  
       15 天前
    SD 模型现在已经落后太多了
    clementewy
        17
    clementewy  
       15 天前
    1:1 复刻 只有自己炼了
    rxmt
        18
    rxmt  
       15 天前
    @iixy 奥奥,我是这么理解的,每个模型都有不同的特性,比如:sd 系列的提示词写法简单说是 1 个词 1 个词的,根据模型本身、lora 触发词等设计,模型对特定词语的遵循性更强(包括正向以及反向),对提示词中的一些细节反而不那么敏感; flux 系列则会更遵循生图的提示词,在训练的时候提示词编写特点就变成了用简短的白话或者词句描述图像内容,素材集特点也会改变,生图的时候对提示词遵循更加严格,而模型本身的规则弱化了一些。我表达的不太专业可能。。

    关于干扰因素和花里胡哨,我可能有点不认可,模型本身的性能会限制发挥,还原性或者说角色一致性看能也会差。换新模型,考验的是摸索提示词技巧的能力,性能更好的模型其实一致性能力上限或更高。举个我遇到的问题:我有一段时间想要做一种毛绒绒质感的卡通形象,但是 sd15 ,sdxl 出来的角色边缘效果很糊,一些特点(高矮胖瘦、五官尺寸等等)还原的有偏差。但是尝试性能更好的模型,往往摸索后就能解决。

    如果 op 有精力的话可以尝试,细节要求不高或者对这块投入的精力有限还是在 sd15 上做也没太大问题,这种效果评估多少还是比较主观的。
    iixy
        19
    iixy  
    OP
       15 天前
    @rxmt 哈哈,所以我吐槽的就是随机性太强了。我在考虑花这么多功夫还不如试试建模算了。
    FireKey
        20
    FireKey  
       15 天前
    先去 c 站找找大佬们训练的 lora,大部分角色是有的,省了重复造轮子的功夫.动漫风目前最好的是 illustrious 模型,搜索的时候把这个筛选项选上,一般训练出来的模型质量都不差.
    炼丹的话还原其实不是难事,批次多些总有满意的.出图我建议自己写个脚本工具,根据自己提供的词轮流生图,总有满意的.我一般挂个一晚上能生成千八百张图,然后在自己挑选满意的图片保存.
    darksword21
        21
    darksword21  
    PRO
       15 天前
    SD1.5 早淘汰了
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5029 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 52ms UTC 09:40 PVG 17:40 LAX 01:40 JFK 04:40
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86