目录
ImageFolder 加载数据集
使用pytorch提供的Dataset类创建自己的数据集。
Dataset加载数据集
接下来我们就可以构建我们的网络架构:
训练我们的网络:
保存网络模型(这里不止是保存参数,还保存了网络结构)
pytorch加载图片数据集有两种方法。
1.ImageFolder 适合于分类数据集,并且每一个类别的图片在同一个文件夹, ImageFolder加载的数据集, 训练数据为文件件下的图片, 训练标签是对应的文件夹, 每个文件夹为一个类别
在Flower_Orig_dataset文件夹下有flower_orig 和 sunflower这两个文件夹, 这两个文件夹下放着同一个类别的图片。 使用 ImageFolder 加载的图片, 就会返回图片信息和对应的label信息, 但是label信息是根据文件夹给出的, 如flower_orig就是标签0, sunflower就是标签1。
ImageFolder 加载数据集1. 导入包和设置transform
import torch
from torchvision import transforms, datasets
import torch.nn as nn
from torch.utils.data import DataLoader
transforms = transforms.Compose([
transforms.Resize(256), # 将图片短边缩放至256,长宽比保持不变:
transforms.CenterCrop(224), #将图片从中心切剪成3*224*224大小的图片
transforms.ToTensor() #把图片进行归一化,并把数据转换成Tensor类型
])
2.加载数据集: 将分类图片的父目录作为路径传递给ImageFolder(), 并传入transform。这样就有了要加载的数据集, 之后就可以使用DataLoader加载数据, 并构建网络训练。
path = r'D:\数据集\Flower_Orig_dataset'
data_train = datasets.ImageFolder(path, transform=transforms)
data_loader = DataLoader(data_train, batch_size=64, shuffle=True)
for i, data in enumerate(data_loader):
images, labels = data
print(images.shape)
print(labels.shape)
break
使用pytorch提供的Dataset类创建自己的数据集。
具体步骤:
1. 首先要有一个txt文件, 这个文件格式是: 图片路径 标签. 这样的格式, 所以使用os库, 遍历自己的图片名, 并把标签和图片路径写入txt文件。
2. 有了这个txt文件, 我们就可以在类里面构造我们的数据集.
2.1 把图片路径和图片标签分割开, 有两个列表, 一个列表是图片路径名, 一个列表是标签号, 有一点就是第 i 个图片列表和 第 i 个标签是对应的
3. 重写__len__方法 和 __getitem__方法
3.1 getitem方法中, 获得对应的图片路径,并用PIL库读取文件把图片transfrom后, 在getitem函数中返回读取的图片和标签即可
4.就可以构建数据集实例和加载数据集.
定义一个用来生成[ 图片路径 标签] 这样的txt文件函数
def make_txt(root, file_name, label):
path = os.path.join(root, file_name)
data = os.listdir(path)
f = open(path+'\'+'f.txt', 'w')
for line in data:
f.write(line+' '+str(label)+'\n')
f.close()
#调用函数生成两个文件夹下的txt文件
make_txt(path, file_name='flower_orig', label=0)
make_txt(path, file_name='sunflower', label=1)
将连个txt文件合并成一个txt文件,表示数据集所有的图片和标签
def link_txt(file1, file2):
txt_list = []
path = r'D:\数据集\Flower_Orig_dataset\data.txt'
f = open(path, 'a')
f1 = open(file1, 'r')
data1 = f1.readlines()
for line in data1:
txt_list.append(line)
f2 = open(file2, 'r')
data2 = f2.readlines()
for line in data2:
txt_list.append(line)
for line in txt_list:
f.write(line)
f.close()
f1.close()
f2.close()
#调用函数, 将两个文件夹下的txt文件合并
file1 = r'D:\数据集\Flower_Orig_dataset\flower_orig\f.txt'
file2 = r'D:\数据集\Flower_Orig_dataset\sunflower\f.txt'
link_txt(file1=file1, file2=file2)
现在我们已经有了我们制作数据集所需要的txt文件, 接下来要做的即使继承Dataset类, 来构建自己的数据集 , 别忘了前面说的 构建数据集步骤, 在__getitem__函数中, 需要拿到图片路径和标签, 并且用PIL库方法读取图片,对图片进行transform转换后,返回图片信息和标签信息
Dataset加载数据集我们读取图片的根目录, 在根目录下有所有图片的txt文件, 拿到txt文件后, 先读取txt文件, 之后遍历txt文件中的每一行, 首先去除掉尾部的换行符, 在以空格切分,前半部分是图片名称, 后半部分是图片标签, 当图片名称和根目录结合,就得到了我们的图片路径
class MyDataset(Dataset):
def __init__(self, img_path, transform=None):
super(MyDataset, self).__init__()
self.root = img_path
self.txt_root = self.root + 'data.txt'
f = open(self.txt_root, 'r')
data = f.readlines()
imgs = []
labels = []
for line in data:
line = line.rstrip()
word = line.split()
imgs.append(os.path.join(self.root, word[1], word[0]))
labels.append(word[1])
self.img = imgs
self.label = labels
self.transform = transform
def __len__(self):
return len(self.label)
def __getitem__(self, item):
img = self.img[item]
label = self.label[item]
img = Image.open(img).convert('RGB')
#此时img是PIL.Image类型 label是str类型
if transforms is not None:
img = self.transform(img)
label = np.array(label).astype(np.int64)
label = torch.from_numpy(label)
return img, label
加载我们的数据集:
path = r'D:\数据集\Flower_Orig_dataset'
dataset = MyDataset(path, transform=transform)
data_loader = DataLoader(dataset=dataset, batch_size=64, shuffle=True)
接下来我们就可以构建我们的网络架构:
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3,16,3)
self.maxpool = nn.MaxPool2d(2,2)
self.conv2 = nn.Conv2d(16,5,3)
self.relu = nn.ReLU()
self.fc1 = nn.Linear(55*55*5, 1200)
self.fc2 = nn.Linear(1200,64)
self.fc3 = nn.Linear(64,2)
def forward(self,x):
x = self.maxpool(self.relu(self.conv1(x))) #113
x = self.maxpool(self.relu(self.conv2(x))) #55
x = x.view(-1, self.num_flat_features(x))
x = self.relu(self.fc1(x))
x = self.relu(self.fc2(x))
x = self.fc3(x)
return x
def num_flat_features(self, x):
size = x.size()[1:]
num_features = 1
for s in size:
num_features *= s
return num_features
训练我们的网络:
model = Net()
criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)
epochs = 10
for epoch in range(epochs):
running_loss = 0.0
for i, data in enumerate(data_loader):
images, label = data
out = model(images)
loss = criterion(out, label)
optimizer.zero_grad()
loss.backward()
optimizer.step()
running_loss += loss.item()
if(i+1)%10 == 0:
print('[%d %5d] loss: %.3f'%(epoch+1, i+1, running_loss/100))
running_loss = 0.0
print('finished train')
保存网络模型(这里不止是保存参数,还保存了网络结构)
#保存模型
torch.save(net, 'model_name.pth') #保存的是模型, 不止是w和b权重值
# 读取模型
model = torch.load('model_name.pth')
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)