在训练部分,我们使用MNIST数据集(无穷数据集)对模型进行了训练,并且似乎达到了合理的损失和准确性。如果模型能够将其学到的知识应用于新数据并进行泛化,那么这将是其性能的真正体现。以下是验证模型的步骤:

步骤1:

我们将使用我们在训练部分创建的训练数据集来创建验证集。这次我们将设置train等于False

validation_dataset=datasets.MNIST(root='./data',train=False,download=True,transform=transform1)  

步骤2:

现在,我们已经声明了一个训练加载器,在验证部分同样我们将声明一个验证加载器。验证加载器将以与我们创建训练加载器相同的方式创建,但这次我们传递的是验证数据加载器而不是训练数据加载器,并且我们将shuffle设置为False,因为我们不会对验证数据进行训练。不需要打乱它,因为它只用于测试目的。

validation_loader=torch.utils.data.DataLoader(dataset=validation_dataset,batch_size=100,shuffle=False)  

步骤3:

我们的下一步是在每个epoch时分析验证损失和准确性。为此,我们必须创建两个列表,即验证运行损失和验证运行损失正确。

val_loss_history=[]  
val_correct_history=[]  

步骤4:

在接下来的步骤中,我们将验证模型。模型将在同一epoch中验证。在完成迭代整个训练集以训练数据之后,我们现在将在整个验证集上进行迭代,以测试我们的数据。

我们将首先测量两个指标。第一个是我们的模型性能,即我们模型在验证集上有多少正确的分类。我们将设置验证的运行损失和验证的运行准确性:

val_loss=0.0  
val_correct=0.0  

步骤5:

我们现在可以循环遍历我们的测试数据。因此,在else语句之后,我们将定义一个循环语句,对于验证输入和标签:

for val_input,val_labels in validation_loader:  

步骤6:

当我们迭代图像的批次时,我们必须将它们展平,并使用view方法进行形状变换。

注意:每个图像张量的形状是(1,28,28),这意味着总共有784个像素。

根据神经网络的结构,我们的输入值将与连接输入层和第一隐藏层的权重矩阵相乘。为了进行这个乘法,我们必须使我们的图像变为一维。我们需要将每个图像从28行2列展平为784个像素的单行。

val_inputs=val_input.view(val_input.shape[0],-1)  

现在,借助这些输入,我们得到输出。

val_outputs=model(val_inputs)  

步骤7:

借助输出,我们将计算总分类交叉熵损失,并将输出与实际标签进行比较。

val_loss1=criteron(val_outputs,val_labels)  

由于我们不再训练神经网络,因此无需调用zero_grad()backward()或任何这些操作。也不再需要计算导数。为了节省内存,在for循环之前使用torch.no_grad()方法:

with torch.no_grad():  

这将临时将所有requires_grad标志设置为False

步骤8:

现在,我们将以与之前计算训练损失和训练准确性相同的方式计算验证损失和准确性。

_,val_preds=torch.max(val_outputs,1)  
val_loss+=val_loss1.item()  
val_correct+=torch.sum(val_preds==val_labels.data)  

步骤9:

现在,我们将计算验证epoch损失,方法与我们计算训练epoch损失的方式相同,其中我们将总运行损失除以数据集的长度。

val_epoch_loss=val_loss/len(validation_loader)  
val_epoch_acc=correct.float()/len(validation_loader)  
val_loss_history.append(val_epoch_loss)  
val_correct_history.append(epoch_acc)  

步骤10:

我们将打印验证损失和验证准确性。

print('validation_loss:{:.4f},{:.4f}'.format(val_epoch_loss,val_epoch_acc.item()))  

这将产生预期的结果,如下所示:

5-1.png

步骤11:

为了更好地理解,我们将进行可视化。我们将绘制如下图:

plt.plot(loss_history,label='Training Loss')  
plt.plot(val_loss_history,label='Validation Loss')  
plt.legend()  
plt.show()  

5-2.png

plt.plot(correct_history,label='Training accuracy')  
plt.plot(val_correct_history,label='Validation accuracy')  
plt.legend()  
plt.show()  

5-3.png

完整代码

import torch  
import matplotlib.pyplot as plt  
import numpy as np  
import torch.nn.functional as func  
from torch import nn  
from torchvision import datasets,transforms   
transform1=transforms.Compose([transforms.Resize((28,28)),transforms.ToTensor(),transforms.Normalize((0.5,),(0.5,))])  
training_dataset=datasets.MNIST(root='./data',train=True,download=True,transform=transform1)  
validation_dataset=datasets.MNIST(root='./data',train=False,download=True,transform=transform1)  
training_loader=torch.utils.data.DataLoader(dataset=training_dataset,batch_size=100,shuffle=True)  
validation_loader=torch.utils.data.DataLoader(dataset=validation_dataset,batch_size=100,shuffle=False)  
def im_convert(tensor):  
    image=tensor.clone().detach().numpy()  
    image=image.transpose(1,2,0)  
    print(image.shape)  
    image=image*(np.array((0.5,0.5,0.5))+np.array((0.5,0.5,0.5)))  
    image=image.clip(0,1)  
    return image  
class classification1(nn.Module):  
    def __init__(self,input_layer,hidden_layer1,hidden_layer2,output_layer):  
        super().__init__()  
        self.linear1=nn.Linear(input_layer,hidden_layer1)  
        self.linear2=nn.Linear(hidden_layer1,hidden_layer2)  
        self.linear3=nn.Linear(hidden_layer2,output_layer)  
    def forward(self,x):  
        x=func.relu(self.linear1(x))  
        x=func.relu(self.linear2(x))  
        x=self.linear3(x)  
        return x  
model=classification1(784,125,65,10)  
criteron=nn.CrossEntropyLoss()  
optimizer=torch.optim.Adam(model.parameters(),lr=0.0001)  
epochs=12  
loss_history=[]  
correct_history=[]  
val_loss_history=[]  
val_correct_history=[]  
for e in range(epochs):  
    loss=0.0  
    correct=0.0  
    val_loss=0.0  
    val_correct=0.0  
    for input,labels in training_loader:  
        inputs=input.view(input.shape[0],-1)  
        outputs=model(inputs)  
        loss1=criteron(outputs,labels)  
        optimizer.zero_grad()  
        loss1.backward()  
        optimizer.step()  
        _,preds=torch.max(outputs,1)  
        loss+=loss1.item()  
        correct+=torch.sum(preds==labels.data)  
    else:  
        with torch.no_grad():  
            for val_input,val_labels in validation_loader:  
                val_inputs=val_input.view(val_input.shape[0],-1)  
                val_outputs=model(val_inputs)  
                val_loss1=criteron(val_outputs,val_labels)   
                _,val_preds=torch.max(val_outputs,1)  
                val_loss+=val_loss1.item()  
                val_correct+=torch.sum(val_preds==val_labels.data)  
        epoch_loss=loss/len(training_loader)  
        epoch_acc=correct.float()/len(training_loader)  
        loss_history.append(epoch_loss)  
        correct_history.append(epoch_acc)  
        val_epoch_loss=val_loss/len(validation_loader)  
        val_epoch_acc=correct.float()/len(validation_loader)  
        val_loss_history.append(val_epoch_loss)  
        val_correct_history.append(epoch_acc)  
        print('training_loss:{:.4f},{:.4f}'.format(epoch_loss,epoch_acc.item()))  
        print('validation_loss:{:.4f},{:.4f}'.format(val_epoch_loss,val_epoch_acc.item()))  
plt.plot(correct_history,label='Correct history ')  
plt.plot(val_correct_history,label='Validation correct history')  
plt.legend()  
plt.show()  
plt.plot(correct_history,label='Training accuracy')  
plt.plot(val_correct_history,label='Validation accuracy')  
plt.legend()  
plt.show()  

标签: Pytorch, Pytorch教程, Pytorch安装, Pytorch入门, Pytorch下载, Pytorch指南, Pytorch编程, Pytorch入门教程, Pytorch初级教程, Pytorch进阶, Pytorch高级教程, Pytorch学习, Pytorch库