大佬教程收集整理的这篇文章主要介绍了pytorch 记录,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
好歹是把简单的图像分类弄了,用了谷歌的免费GPU
use_gpu = torch.cuda.is_available()
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
print(devicE)
ssl._create_default_https_context = ssl._create_unverified_context
import torch
import torchvision
import torchvision.transforms as transforms
transform = transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
# 下载训练数据集
Trainset = torchvision.datasets.CIFAR10(root='./data', Train=True,
download=True, transform=transform)
# 下载测试数据集
testset = torchvision.datasets.CIFAR10(root='./data', Train=false,
download=True, transform=transform)
Trainloader = torch.utils.data.DataLoader(Trainset, batch_size=4,
shuffle=True, num_workers=2)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
shuffle=false, num_workers=2)
classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
import torch.nn.functional as F
class Net(nn.ModulE):
def __init__(self):
super(Net,self).__init__()
self.conv1 = nn.Conv2d(3,6,5) #输入3通道,输出6通道,卷积核5*5
self.pool = nn.MaxPool2d(2,2) #核2*2,步长为2
self.conv2 = nn.Conv2d(6,16,5)
self.fc1 = nn.Linear(16*5*5,120) #输入16*5*5的向量batch,输出120的batch
self.fc2 = nn.Linear(120,84)
self.fc3 = nn.Linear(84,10) # 最终输出10的batch
def forWARD(self,X):
x = self.pool(F.relu(self.conv1(X)))
x = self.pool(F.relu(self.conv2(X))) #进行两次卷积和两次池化,其中带有relu函数
x = x.view(-1,16*5*5) #变形成为适合linear的向量batch
x = F.relu(self.fc1(X))
x = F.relu(self.fc2(X))
x = self.fc3(X)
return x
net = Net()
net = net.cuda()
#设置损失函数和优化器
import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(),lr=0.001,momentum=0.9) #其中momentum为动量参数
#criterion = criterion.cuda()
```
###4.训练
```for epoch in range(2):
running_loss = 0.0
for i,data in enumerate(Trainloader,0): #enumerate挨个枚举出数据
#读取数据
inputs,labels = data
inputs = inputs.cuda()
labels = labels.cuda()
#梯度重置为0
optimizer.zero_grad()
#训练
outputs = net(inputs) #一次向前传播
loss = criterion(outputs,labels) #计算损失
loss.BACkWARD() #反向传播
optimizer.step() #优化器
running_loss += loss.item() #item()将0维张量loss转化为浮点数赋给running_loss
if i%2000 == 1999:
#输出每2000个数据训练后的loss
print('[%d,%5d] loss:%.3f'%(epoch+1,i+1,running_loss/2000))
running_loss = 0 #重置running_loss
以上是大佬教程为你收集整理的pytorch 记录全部内容,希望文章能够帮你解决pytorch 记录所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。