原文: https://pytorch.org/tutorials/advanced/neural_style_tutorial.html
作者: Alexis Jacq
編輯:溫斯頓·鯡魚
本教程說明了如何實現(xiàn)由 Leon A. Gatys,Alexander S. Ecker 和 Matthias Bethge 開發(fā)的神經(jīng)樣式算法。 神經(jīng)風格(Neural-Style)或神經(jīng)傳遞(Neural-Transfer)使您可以拍攝圖像并以新的藝術風格對其進行再現(xiàn)。 該算法獲取三個圖像,即輸入圖像,內(nèi)容圖像和樣式圖像,然后更改輸入以使其類似于內(nèi)容圖像的內(nèi)容和樣式圖像的藝術風格。
原理很簡單:我們定義了兩個距離,一個為內(nèi)容( ),一個為樣式( )。 測量兩個圖像之間的內(nèi)容有多大不同,而 測量兩個圖像之間的樣式有多大不同。 然后,我們獲取第三個圖像(輸入),并將其轉(zhuǎn)換為最小化與內(nèi)容圖像的內(nèi)容距離和與樣式圖像的樣式距離。 現(xiàn)在我們可以導入必要的程序包并開始神經(jīng)傳遞。
以下是實現(xiàn)神經(jīng)傳遞所需的軟件包列表。
torch
,torch.nn
,numpy
(使用 PyTorch 的神經(jīng)網(wǎng)絡必不可少的軟件包)torch.optim
(有效梯度下降)PIL
,PIL.Image
,matplotlib.pyplot
(加載并顯示圖像)torchvision.transforms
(將 PIL 圖像轉(zhuǎn)換為張量)torchvision.models
(訓練或負載預訓練模型)copy
(用于深復制模型;系統(tǒng)軟件包)from __future__ import print_function
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from PIL import Image
import matplotlib.pyplot as plt
import torchvision.transforms as transforms
import torchvision.models as models
import copy
接下來,我們需要選擇要在哪個設備上運行網(wǎng)絡并導入內(nèi)容和樣式圖像。 在大圖像上運行神經(jīng)傳遞算法需要更長的時間,并且在 GPU 上運行時會更快。 我們可以使用torch.cuda.is_available()
來檢測是否有 GPU。 接下來,我們設置torch.device
以在整個教程中使用。 .to(device)
方法也用于將張量或模塊移動到所需的設備。
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
現(xiàn)在,我們將導入樣式和內(nèi)容圖像。 原始的 PIL 圖像的值在 0 到 255 之間,但是當轉(zhuǎn)換為torch張量時,其值將轉(zhuǎn)換為 0 到 1 之間。圖像也需要調(diào)整大小以具有相同的尺寸。 需要注意的一個重要細節(jié)是,使用從 0 到 1 的張量值對torch庫中的神經(jīng)網(wǎng)絡進行訓練。如果嘗試為網(wǎng)絡提供 0 到 255 張量圖像,則激活的特征圖將無法感知預期的內(nèi)容 和風格。 但是,使用 0 到 255 張量圖像對 Caffe 庫中的預訓練網(wǎng)絡進行訓練。
Note
以下是下載運行本教程所需的圖像的鏈接: picasso.jpg 和 dance.jpg 。
下載這兩個圖像并將它們添加到當前工作目錄中名稱為images
的目錄中。
# desired size of the output image
imsize = 512 if torch.cuda.is_available() else 128 # use small size if no gpu
loader = transforms.Compose([
transforms.Resize(imsize), # scale imported image
transforms.ToTensor()]) # transform it into a torch tensor
def image_loader(image_name):
image = Image.open(image_name)
# fake batch dimension required to fit network's input dimensions
image = loader(image).unsqueeze(0)
return image.to(device, torch.float)
style_img = image_loader("./daimg/neural-style/picasso.jpg")
content_img = image_loader("./daimg/neural-style/dancing.jpg")
assert style_img.size() == content_img.size(), \
"we need to import style and content images of the same size"
現(xiàn)在,讓我們創(chuàng)建一個顯示圖像的功能,方法是將圖像的副本轉(zhuǎn)換為 PIL 格式,然后使用plt.imshow
顯示該副本。 我們將嘗試顯示內(nèi)容和樣式圖像,以確保正確導入它們。
unloader = transforms.ToPILImage() # reconvert into PIL image
plt.ion()
def imshow(tensor, title=None):
image = tensor.cpu().clone() # we clone the tensor to not do changes on it
image = image.squeeze(0) # remove the fake batch dimension
image = unloader(image)
plt.imshow(image)
if title is not None:
plt.title(title)
plt.pause(0.001) # pause a bit so that plots are updated
plt.figure()
imshow(style_img, title='Style Image')
plt.figure()
imshow(content_img, title='Content Image')
內(nèi)容損失是代表單個圖層內(nèi)容距離的加權版本的函數(shù)。 該功能獲取網(wǎng)絡處理輸入
中層
的特征圖
,并返回圖像
和內(nèi)容圖像
之間的加權內(nèi)容距離
。 為了計算內(nèi)容距離,該功能必須知道內(nèi)容圖像的特征圖(
)。 我們將此功能實現(xiàn)為炬管模塊,并使用以
作為輸入的構造函數(shù)。 距離
是兩組特征圖之間的均方誤差,可以使用nn.MSELoss
進行計算。
我們將直接在用于計算內(nèi)容距離的卷積層之后添加此內(nèi)容丟失模塊。 這樣,每次向網(wǎng)絡饋入輸入圖像時,都會在所需層上計算內(nèi)容損失,并且由于自動漸變,將計算所有梯度。 現(xiàn)在,為了使內(nèi)容丟失層透明,我們必須定義一種forward
方法,該方法計算內(nèi)容丟失,然后返回該層的輸入。 計算出的損耗將保存為模塊的參數(shù)。
class ContentLoss(nn.Module):
def __init__(self, target,):
super(ContentLoss, self).__init__()
# we 'detach' the target content from the tree used
# to dynamically compute the gradient: this is a stated value,
# not a variable. Otherwise the forward method of the criterion
# will throw an error.
self.target = target.detach()
def forward(self, input):
self.loss = F.mse_loss(input, self.target)
return input
注意:
重要細節(jié):盡管此模塊名為ContentLoss
,但它不是真正的 PyTorch Loss 函數(shù)。 如果要將內(nèi)容損失定義為 PyTorch 損失函數(shù),則必須創(chuàng)建一個 PyTorch autograd 函數(shù)以使用backward
方法手動重新計算/實現(xiàn)漸變。
樣式丟失模塊的實現(xiàn)類似于內(nèi)容丟失模塊。 在網(wǎng)絡中它將充當透明層,計算該層的樣式損失。 為了計算樣式損失,我們需要計算語法矩陣 。 gram 矩陣是給定矩陣與其轉(zhuǎn)置矩陣相乘的結(jié)果。 在此應用程序中,給定的矩陣是圖層 的特征圖 的重塑版本。 被重塑以形成 , x 矩陣,其中 是第 層特征圖的數(shù)量, 是任何矢量化特征圖 的長度 ]。 例如, 的第一行對應于第一矢量化特征圖 。
最后,必須通過將每個元素除以矩陣中元素的總數(shù)來對 gram 矩陣進行歸一化。 此歸一化是為了抵消 尺寸較大的 矩陣在 Gram 矩陣中產(chǎn)生較大值的事實。 這些較大的值將導致第一層(在合并池之前)在梯度下降期間具有較大的影響。 樣式特征往往位于網(wǎng)絡的更深層,因此此標準化步驟至關重要。
def gram_matrix(input):
a, b, c, d = input.size() # a=batch size(=1)
# b=number of feature maps
# (c,d)=dimensions of a f. map (N=c*d)
features = input.view(a * b, c * d) # resise F_XL into \hat F_XL
G = torch.mm(features, features.t()) # compute the gram product
# we 'normalize' the values of the gram matrix
# by dividing by the number of element in each feature maps.
return G.div(a * b * c * d)
現(xiàn)在,樣式丟失模塊看起來幾乎與內(nèi)容丟失模塊完全一樣。 還使用 和 之間的均方誤差來計算樣式距離。
class StyleLoss(nn.Module):
def __init__(self, target_feature):
super(StyleLoss, self).__init__()
self.target = gram_matrix(target_feature).detach()
def forward(self, input):
G = gram_matrix(input)
self.loss = F.mse_loss(G, self.target)
return input
現(xiàn)在我們需要導入一個預訓練的神經(jīng)網(wǎng)絡。 我們將使用 19 層 VGG 網(wǎng)絡,就像本文中使用的那樣。
PyTorch 的 VGG 實現(xiàn)是一個模塊,分為兩個子Sequential
模塊:features
(包含卷積和池化層)和classifier
(包含完全連接的層)。 我們將使用features
模塊,因為我們需要各個卷積層的輸出來測量內(nèi)容和樣式損失。 某些層在訓練期間的行為與評估不同,因此我們必須使用.eval()
將網(wǎng)絡設置為評估模式。
cnn = models.vgg19(pretrained=True).features.to(device).eval()
另外,在圖像上訓練 VGG 網(wǎng)絡,每個通道的均值通過均值= [0.485,0.456,0.406]和 std = [0.229,0.224,0.225]歸一化。 在將其發(fā)送到網(wǎng)絡之前,我們將使用它們對圖像進行規(guī)范化。
cnn_normalization_mean = torch.tensor([0.485, 0.456, 0.406]).to(device)
cnn_normalization_std = torch.tensor([0.229, 0.224, 0.225]).to(device)
## create a module to normalize input image so we can easily put it in a
## nn.Sequential
class Normalization(nn.Module):
def __init__(self, mean, std):
super(Normalization, self).__init__()
# .view the mean and std to make them [C x 1 x 1] so that they can
# directly work with image Tensor of shape [B x C x H x W].
# B is batch size. C is number of channels. H is height and W is width.
self.mean = torch.tensor(mean).view(-1, 1, 1)
self.std = torch.tensor(std).view(-1, 1, 1)
def forward(self, img):
# normalize img
return (img - self.mean) / self.std
Sequential
模塊包含子模塊的有序列表。 例如,vgg19.features
包含以正確的深度順序排列的序列(Conv2d,ReLU,MaxPool2d,Conv2d,ReLU…)。 我們需要在檢測到的卷積層之后立即添加內(nèi)容丟失層和樣式丟失層。 為此,我們必須創(chuàng)建一個新的Sequential
模塊,該模塊具有正確插入的內(nèi)容丟失和樣式丟失模塊。
# desired depth layers to compute style/content losses :
content_layers_default = ['conv_4']
style_layers_default = ['conv_1', 'conv_2', 'conv_3', 'conv_4', 'conv_5']
def get_style_model_and_losses(cnn, normalization_mean, normalization_std,
style_img, content_img,
content_layers=content_layers_default,
style_layers=style_layers_default):
cnn = copy.deepcopy(cnn)
# normalization module
normalization = Normalization(normalization_mean, normalization_std).to(device)
# just in order to have an iterable access to or list of content/syle
# losses
content_losses = []
style_losses = []
# assuming that cnn is a nn.Sequential, so we make a new nn.Sequential
# to put in modules that are supposed to be activated sequentially
model = nn.Sequential(normalization)
i = 0 # increment every time we see a conv
for layer in cnn.children():
if isinstance(layer, nn.Conv2d):
i += 1
name = 'conv_{}'.format(i)
elif isinstance(layer, nn.ReLU):
name = 'relu_{}'.format(i)
# The in-place version doesn't play very nicely with the ContentLoss
# and StyleLoss we insert below. So we replace with out-of-place
# ones here.
layer = nn.ReLU(inplace=False)
elif isinstance(layer, nn.MaxPool2d):
name = 'pool_{}'.format(i)
elif isinstance(layer, nn.BatchNorm2d):
name = 'bn_{}'.format(i)
else:
raise RuntimeError('Unrecognized layer: {}'.format(layer.__class__.__name__))
model.add_module(name, layer)
if name in content_layers:
# add content loss:
target = model(content_img).detach()
content_loss = ContentLoss(target)
model.add_module("content_loss_{}".format(i), content_loss)
content_losses.append(content_loss)
if name in style_layers:
# add style loss:
target_feature = model(style_img).detach()
style_loss = StyleLoss(target_feature)
model.add_module("style_loss_{}".format(i), style_loss)
style_losses.append(style_loss)
# now we trim off the layers after the last content and style losses
for i in range(len(model) - 1, -1, -1):
if isinstance(model[i], ContentLoss) or isinstance(model[i], StyleLoss):
break
model = model[:(i + 1)]
return model, style_losses, content_losses
接下來,我們選擇輸入圖像。 您可以使用內(nèi)容圖像或白噪聲的副本。
input_img = content_img.clone()
## if you want to use white noise instead uncomment the below line:
## input_img = torch.randn(content_img.data.size(), device=device)
## add the original input image to the figure:
plt.figure()
imshow(input_img, title='Input Image')
正如算法作者 Leon Gatys 在此處建議一樣,我們將使用 L-BFGS 算法來運行梯度下降。 與訓練網(wǎng)絡不同,我們希望訓練輸入圖像,以最大程度地減少內(nèi)容/樣式損失。 我們將創(chuàng)建一個 PyTorch L-BFGS 優(yōu)化器optim.LBFGS
,并將圖像作為張量傳遞給它進行優(yōu)化。
def get_input_optimizer(input_img):
# this line to show that input is a parameter that requires a gradient
optimizer = optim.LBFGS([input_img.requires_grad_()])
return optimizer
最后,我們必須定義一個執(zhí)行神經(jīng)傳遞的函數(shù)。 對于網(wǎng)絡的每次迭代,它都會被提供更新的輸入并計算新的損耗。 我們將運行每個損失模塊的backward
方法來動態(tài)計算其梯度。 優(yōu)化器需要“關閉”功能,該功能可以重新評估模數(shù)并返回損耗。
我們還有最后一個約束要解決。 網(wǎng)絡可能會嘗試使用超出圖像的 0 到 1 張量范圍的值來優(yōu)化輸入。 我們可以通過在每次網(wǎng)絡運行時將輸入值校正為 0 到 1 之間來解決此問題。
def run_style_transfer(cnn, normalization_mean, normalization_std,
content_img, style_img, input_img, num_steps=300,
style_weight=1000000, content_weight=1):
"""Run the style transfer."""
print('Building the style transfer model..')
model, style_losses, content_losses = get_style_model_and_losses(cnn,
normalization_mean, normalization_std, style_img, content_img)
optimizer = get_input_optimizer(input_img)
print('Optimizing..')
run = [0]
while run[0] <= num_steps:
def closure():
# correct the values of updated input image
input_img.data.clamp_(0, 1)
optimizer.zero_grad()
model(input_img)
style_score = 0
content_score = 0
for sl in style_losses:
style_score += sl.loss
for cl in content_losses:
content_score += cl.loss
style_score *= style_weight
content_score *= content_weight
loss = style_score + content_score
loss.backward()
run[0] += 1
if run[0] % 50 == 0:
print("run {}:".format(run))
print('Style Loss : {:4f} Content Loss: {:4f}'.format(
style_score.item(), content_score.item()))
print()
return style_score + content_score
optimizer.step(closure)
# a last correction...
input_img.data.clamp_(0, 1)
return input_img
最后,我們可以運行算法。
output = run_style_transfer(cnn, cnn_normalization_mean, cnn_normalization_std,
content_img, style_img, input_img)
plt.figure()
imshow(output, title='Output Image')
## sphinx_gallery_thumbnail_number = 4
plt.ioff()
plt.show()
得出:
Building the style transfer model..
Optimizing..
run [50]:
Style Loss : 4.169305 Content Loss: 4.235329
run [100]:
Style Loss : 1.145476 Content Loss: 3.039176
run [150]:
Style Loss : 0.716769 Content Loss: 2.663749
run [200]:
Style Loss : 0.476047 Content Loss: 2.500893
run [250]:
Style Loss : 0.347092 Content Loss: 2.410895
run [300]:
Style Loss : 0.263698 Content Loss: 2.358449
腳本的總運行時間:(1 分鐘 20.670 秒)
Download Python source code: neural_style_tutorial.py
Download Jupyter notebook: neural_style_tutorial.ipynb
由獅身人面像畫廊生成的畫廊
更多建議: