关于重现 NEURAL TRANSFER 遇到的问题 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
Waihinchan

关于重现 NEURAL TRANSFER 遇到的问题

  •  
  •   Waihinchan Aug 7, 2020 1731 views
    This topic created in 2090 days ago, the information mentioned may be changed or developed.
    参照的教程是这个:

    https://pytorch.org/tutorials/advanced/neural_style_tutorial.html

    主要问的不是算法本身..是 pytorch 的一些使用的问题还是很懵
    我没有完全按照上面链接的方法写.我理解的思路就是用预训练的 vgg 网络的卷积部分去提取图像的“特征”,然后转化成 gram 矩阵之后再用 MSE_LOSS 和输入的图像进行比较.

    所以我写的时候是这样写的:

    optimizer = optim.LBFGS([content_img.requires_grad_().to(device)])

    input_styles = model(content_img)
    for input,targetin zip(input_styles,target_styles):
    loss += F.mse_loss(gram(input),gram(target))
    loss.backward()

    model 就是 5 个 VGG19 的卷积+ReLu 的部分,返回的是不同深度的特征提取张亮
    gram 是转换成 gram 矩阵的函数
    优化器优化输入图像

    但是我发现当我迭代的时候 backward 完全没有传递到给 content_img
    反而当我把 gram 这个函数去掉了之后,如下:

    loss += F.mse_loss(input,target)
    优化器就发挥作用了
    这个部分按道理应该是负责 content_loss 的部分的,也就是没有经过 Gram 矩阵直接比较

    但为什么上面加了 gram 就不起作用,下面的就可以起作用呢?

    我看案例中是直接把 loss 作为一个层放进模型中的,然后发现优化器就可以正常操作了.

    还是不太理解 pytorch 中梯度到底是怎么传递的,我找了一些测试如:

    x = torch.rand(1,2,3,4)
    y = torch.rand(1,2,3,4).requires_grad_()
    optimizer = optim.LBFGS([y])

    now = [0]
    total = 200
    while now[0] < total:
    def closure():
    optimizer.zero_grad()
    z = F.mse_loss(gram(x),gram(y))*100
    z.backward()
    now[0] += 1
    print(y)
    return z
    optimizer.step(closure)

    这种情况下是可以发挥作用的,但是当我把 loss 通过 vgg 产生当不同结果累积起来之后好像 backward(还是优化器)就没有起作用了

    虽然按照最上面链接的教程是可以跑的,但是还是想知道这么写的错误在哪里呢?


    附 gram 函数:
    def gram(input):
    (bs, ch, h, w) = input.size()
    features = input.view(bs * ch, w * h)
    Gram = torch.mm(features,features.t())
    Gram = Gram.div(bs*ch*h*w)
    return Gram


    有一些缩进没有写好...迷迷糊糊的复制粘贴进来也没有调整排版
    麻烦各位大佬凑合看一看,,研究了一整天现在半夜已经精神恍惚了..请见谅
    1 replies    2020-08-07 19:40:49 +08:00
    Waihinchan
        1
    Waihinchan  
    OP
       Aug 7, 2020
    今天又测试了一下..这个写法没有问题..是因为损失太低了,打印的时候没有转换打印格式所以一直显示数值没有变化嗯...
    About     Help     Advertise     Blog     API     FAQ     Solana     5606 Online   Highest 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 32ms UTC 08:41 PVG 16:41 LAX 01:41 JFK 04:41
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86