MXNET深度学习框架-06-使用gluon实现逻辑回归
程序员文章站
2022-04-04 23:51:01
...
上一章没有使用gluon实现了一个逻辑回归,本章我们使用gluon来实现逻辑回归。由于本章与上一章并没有什么本质上的区别,所以直接贴代码:
import mxnet.gluon as gn
import mxnet.autograd as ag
import mxnet.ndarray as nd
def transform(data, label):
return data.astype("float32") / 255, label.astype("float32") # 样本归一化
mnist_train = gn.data.vision.FashionMNIST(train=True)
mnist_test = gn.data.vision.FashionMNIST(train=False)
data, label = mnist_train[0:9]
print(data.shape, label) # 查看数据维度
import matplotlib.pyplot as plt
def show_image(image): # 显示图像
n = image.shape[0]
_, figs = plt.subplots(1, n, figsize=(15, 15))
for i in range(n):
figs[i].imshow(image[i].reshape((28, 28)).asnumpy())
plt.show()
def get_fashion_mnist_labels(labels): # 显示图像标签
text_labels = ['t-shirt', 'trouser', 'pullover', 'dress', 'coat',
'sandal', 'shirt', 'sneaker', 'bag', 'ankle boot']
return [text_labels[int(i)] for i in labels]
#
# show_image(data)
# print(get_fashion_mnist_labels(label))
'''----数据读取----'''
batch_size = 100
transformer = gn.data.vision.transforms.ToTensor()
train_data = gn.data.DataLoader(dataset=mnist_train, batch_size=batch_size, shuffle=True)
test_data = gn.data.DataLoader(dataset=mnist_test, batch_size=batch_size, shuffle=False)
'''----初始化模型参数----'''
# 定义和初始化模型
net=gn.nn.Sequential()
with net.name_scope():
net.add(gn.nn.Flatten()) #首先使用Flatten层将数据转化成(batch_size*num)的矩阵
net.add(gn.nn.Dense(10))
net.initialize()
# softmax和交叉熵分开的话数值可能会不稳定
cross_loss=gn.loss.SoftmaxCrossEntropyLoss()
# 优化
train_step=gn.Trainer(net.collect_params(),'sgd',{"learning_rate":0.1})
# 定义准确率
def accuracy(output,label):
return nd.mean(output.argmax(axis=1)==label).asscalar()
def evaluate_accuracy(data_iter,net):# 定义测试集准确率
acc=0
for data,label in data_iter:
data,label=transform(data,label)
output=net(data)
acc+=accuracy(output,label)
return acc/len(data_iter)
'''---训练---'''
lr=0.1
epochs=20
for epoch in range(epochs):
train_loss=0
train_acc=0
for image,y in train_data:
image,y=transform(image,y) # 类型转换,数据归一化
with ag.record():
output=net(image)
loss=cross_loss(output,y)
loss.backward()
train_step.step(batch_size)
train_loss+=nd.mean(loss).asscalar()
train_acc+=accuracy(output,y)
test_acc=evaluate_accuracy(test_data,net)
print("Epoch %d, Loss:%f, Train acc:%f, Test acc:%f"
%(epoch,train_loss/len(train_data),train_acc/len(train_data),test_acc))
'''----预测-------'''
# 训练完成后,可对样本进行预测
image_10,label_10=mnist_test[:10] #拿到前10个数据
show_image(image_10)
print("真实样本标签:",label_10)
print("真实数字标签对应的服饰名:",get_fashion_mnist_labels(label_10))
image_10,label_10=transform(image_10,label_10)
predict_label=net(image_10).argmax(axis=1)
print("预测样本标签:",predict_label.astype("int8"))
print("预测数字标签对应的服饰名:",get_fashion_mnist_labels(predict_label.asnumpy()))
运行结果:
通过与上一章的运行结果来比较,我们可以很快的发现,使用了gluon后,网络的训练准确率提高了,由于这里并没有贴出训练时间,但其实训练时间也是提高了不少。
推荐阅读
-
MXNET深度学习框架-12-使用gluon实现LeNet-5
-
MXNET深度学习框架-21-使用gluon的NiN(Network in Network)
-
MXNET深度学习框架-06-使用gluon实现逻辑回归
-
MXNET深度学习框架-08-使用gluon实现多层感知机(MLP)
-
MXNET深度学习框架-04-使用gluon实现线性回归
-
MXNET深度学习框架-20-使用Gluon的Batch Normalization(批量归一化)
-
MXNET深度学习框架-16-使用gluon实现dropout
-
MXNET深度学习框架-22-使用gluon的GoogleNet
-
MXNET深度学习框架-18-使用gluon实现VGGNet
-
MXNET深度学习框架-23-使用gluon的ResNet