本文是基于neural style transfer a review 以及其他相关论文。 代表性文章时gaty的开山之作,A neural algorithm of artistic style. 这是一种慢的神经网络实现风格迁移的方法。 重点之一 :常见的深度学习问题是利用训练样本的输入来学习网络的权重。而本文利用已经训练好的权重,获取一个符合输出要求的输入。 输入:以高斯噪声为初始化的输入图像。 经过多次迭代,输入响应即为特定风格和内容的图像。所以这种方法学习的是像素值,而不是权重。 重点之二: 引入了新的loss function。 content loss : 即输入输出图像之间像素点的差。用mse来做。 style loss :用gram matrics来计算。最终表现形式也是mse类似。 基于模型迭代的方法是快速的风格迁移的方法。 代表作是perceptual losses for real-time style transfer and super-resolution。 重点之一 :本文介绍了两个网络组成的大网络。前半部分的网络叫做image transfer,后半部分的网络叫做loss network。image transfer的网络,权重是更新的;而loss network的网络,权重是不更新的,是pretrained的vgg网络,是用来做高维特征提取的。其实就是输入原图,然后通过image transfer网络,来生成带有风格fs的输出,然后用loss network来优化误差,以达到理想的效果。 重点之二 :提出来新的loss function。 feature reconstruction loss : 这里不采用与A neural algorithm of artistic style这篇论文一样的loss function,而是用vgg提取特征作为content loss的衡量。作者这么做的目的就是说,原来那种像素点之间的一一对应的误差函数,在很多情况下的衡量是不准确的。比如两张图片,只发生了一个像素点的偏移。用content loss算出来的话,这个结果是天差地别的,然而实际上这两张图片对人眼来说是没有太大差别的。所以用vgg提取的高层特征作为content loss是有道理的。但是,这种方法也有一个缺点,那就是学出来的东西比较假,不会太真实。 style reconstruction loss :这里和上一篇一样,都使用了gram matrix来作为风格特征。 (1) DSLR-Quality photos on mobile devices with deep convolutional networks. 这篇论文的输入是手机照片(比如iphone, blackberry等),输出是单反照片。 重点之一 :使用gan网络 重点之二 :增加了新的loss function。 color loss :颜色损失计算之前,要对图像进行高斯模糊处理。为什么用高斯模糊处理的原因是,高斯模糊能出去高频的信息,使得颜色之间更容易比较。颜色损失对小的误差匹配有较高的容忍性。因此,能学习到和目标图片相似的颜色分布。 texture loss :使用gan网络,用判别网络的正确率来作为质地误差的衡量。 content loss :以vgg抽象出的高维特征的欧式距离作为内容损失。和上面采用gram matrix不同。 total variation loss :目的是获得较为平滑的输出。 (2) Deep photo style transfer. 之前的风格迁移论文都是建立在一张为摄影图片,另一张为艺术作品。使得生成的图片像画出来的一样,而这篇论文的内容图和风格图皆为摄影作品。 重点之一 :loss function进行了修改。 content loss :采用了feature matrix,同gatys的。 photorealism regularization : 基于颜色空间局部仿射变换的photorealism的正则约束。 augmented style loss with semantic segmentation : 基于语义分割的增广内容损失函数。将分割mask作为输入图像的增广channel,一同输入到神经网络中,从而确保只处理我们感兴趣的内容。