动手学深度学习(一)——逻辑回归(从零开始)

文章作者:Tyan
博客:noahsnail.com  |  CSDN  |  简书

注:本文为李沐大神的《动手学深度学习》的课程笔记!

注意:mxnet随机种子设为1时,loss一直为nan,经测试,种子为2时,jupyter-notebook有时会出现nan,但在命令行执行python文件多次都不会出现nan。

获取数据

# 导入mxnet
import mxnet as mx

# 设置随机种子
mx.random.seed(2)

from mxnet import gluon
from mxnet import ndarray as nd
from mxnet import autograd


# 数据预处理
def transform(data, label):
    return data.astype('float32') / 255, label.astype('float32')

# 加载训练数据
mnist_train = gluon.data.vision.FashionMNIST(train=True, transform=transform)

# 加载测试数据
mnist_test = gluon.data.vision.FashionMNIST(train=False, transform=transform)
# 取出单条数据
data, label = mnist_train[0]

# 查看数据
('example shape: ', data.shape, 'label:', label)
('example shape: ', (28L, 28L, 1L), 'label:', 2.0)

数据可视化

import matplotlib.pyplot as plt

# 显示图像
def show_images(images):
    # 获得图像的数量
    n = images.shape[0]
    # 绘制子图
    _, figs = plt.subplots(1, n, figsize=(15, 15))
    # 遍历绘制图像
    for i in xrange(n):
        # 显示图像
        figs[i].imshow(images[i].reshape((28, 28)).asnumpy())
        
        # 显示灰度图
        #figs[i].imshow(images[i].reshape((28, 28)).asnumpy(), cmap="gray")
        
        # 不显示坐标轴
        figs[i].axes.get_xaxis().set_visible(False)
        figs[i].axes.get_yaxis().set_visible(False)
    plt.show()
    
# 获取图像对应的文本标签
def get_text_labels(labels):
    # 图像标签对应的文本
    text_labels = [
        't-shirt', 'trouser', 'pullover', 'dress,', 'coat',
        'sandal', 'shirt', 'sneaker', 'bag', 'ankle boot'
    ]
    # 返回图像标签对应的文本
    return [text_labels[int(i)] for i in labels]

# 取出训练集的前9条数据
data, label = mnist_train[0:9]

# 显示数据
show_images(data)
# 显示标签
print get_text_labels(label)
Figure
['pullover', 'ankle boot', 'shirt', 't-shirt', 'dress,', 'coat', 'coat', 'sandal', 'coat']

数据读取

# 批数据大小
batch_size = 256

# 读取训练数据
train_data = gluon.data.DataLoader(mnist_train, batch_size, shuffle=True)
# 读取测试数据
test_data = gluon.data.DataLoader(mnist_test, batch_size, shuffle=False)

初始化模型参数

# 输入数据大小
num_inputs = 28 * 28
# 输出数据大小, 分为10类
num_outputs = 10

# 随机初始化权重
W = nd.random_normal(shape=(num_inputs, num_outputs))
# 随机初始化偏置
b = nd.random_normal(shape=num_outputs)

# 参数数组
params = [W, b]
# 需要计算梯度, 添加自动求导
for param in params:
    param.attach_grad()

定义模型

# 定义softmax
def softmax(X):
    # 计算e^x
    exp = nd.exp(X)
    # 假设exp是矩阵,这里对行进行求和,并要求保留axis 1, 就是返回 (nrows, 1) 形状的矩阵
    partition = exp.sum(axis=1, keepdims=True)
    # 对exp进行归一化
    return exp / partition
# 测试softmax

# 随机初始化数据
X = nd.random_normal(shape=(2, 5))
# 求softmax
X_prob = softmax(X)
# 输出结果
print X_prob
# 对每行概率求和, 如果和为1, 说明没问题
print X_prob.sum(axis=1)
[[ 0.06774449  0.5180918   0.1474141   0.11459844  0.1521512 ]
 [ 0.23102701  0.47666225  0.10536087  0.09706162  0.08988826]]
<NDArray 2x5 @cpu(0)>

[ 1.  1.]
<NDArray 2 @cpu(0)>
# 定义模型
def net(X):
    return softmax(nd.dot(X.reshape((-1, num_inputs)), W) + b)

交叉熵损失函数

# 定义交叉熵损失
def cross_entropy(yhat, y):
    return -nd.pick(nd.log(yhat), y)

计算精度

# 计算分类准确率
def accuracy(output, label):
    return nd.mean(output.argmax(axis=1) == label).asscalar()
# 评估整个数据集的分类精度
def evaluate_accuracy(data_iterator, net):
    # 最终的准确率
    acc = 0.0
    # 遍历测试数据集
    for data, label in data_iterator:
        output = net(data)
        # 累加准确率
        acc += accuracy(output, label)
    # 返回平均准确率
    return acc / len(data_iterator)
# 测试随机初始化参数的分类准确率
evaluate_accuracy(test_data, net)
0.15156249999999999

训练

# 定义SGD
def SGD(params, lr):
    # 对参数进行梯度下降
    for param in params:
        # 这样写不会创建新的param, 而是会写在原来的param里, 新的param没有梯度
        param[:] = param - lr * param.grad
# 学习率
learning_rate = 0.1

# 定义迭代周期
epochs = 5

# 训练
for epoch in range(5):
    # 训练损失
    train_loss = 0.0
    # 训练集准确率
    train_acc = 0.0
    # 迭代巡礼
    for data, label in train_data:
        # 记录梯度
        with autograd.record():
            # 计算输出
            output = net(data)
            # 计算损失
            loss = cross_entropy(output, label)
        # 反向传播求梯度
        loss.backward()
        # 将梯度做平均,这样学习率会对batch size不那么敏感, 避免学习率与batch_size耦合
        SGD(params, learning_rate / batch_size)
        # 总的训练损失
        train_loss += nd.mean(loss).asscalar()
        # 总的训练准确率
        train_acc += accuracy(output, label)
    
    # 测试集的准确率
    test_acc = evaluate_accuracy(test_data, net)
    
    print("Epoch %d. Loss: %f, Train acc %f, Test acc %f" % (
        epoch, train_loss / len(train_data), train_acc / len(train_data), test_acc))
Epoch 0. Loss: 3.725043, Train acc 0.487916, Test acc 0.602344
Epoch 1. Loss: 1.965692, Train acc 0.632812, Test acc 0.666895
Epoch 2. Loss: 1.630362, Train acc 0.677349, Test acc 0.691016
Epoch 3. Loss: 1.450728, Train acc 0.701690, Test acc 0.710352
Epoch 4. Loss: 1.329035, Train acc 0.717996, Test acc 0.720410
  • learning_rate = 1
Epoch 0. Loss: 18.803541, Train acc 0.081366, Test acc 0.085840
Epoch 1. Loss: 18.806381, Train acc 0.081394, Test acc 0.085840
Epoch 2. Loss: 18.795504, Train acc 0.081449, Test acc 0.085840
Epoch 3. Loss: 18.798995, Train acc 0.081505, Test acc 0.085840
Epoch 4. Loss: 18.794157, Train acc 0.081505, Test acc 0.085840
  • learning_rate = 0.01
Epoch 0. Loss: 10.406917, Train acc 0.115165, Test acc 0.169629
Epoch 1. Loss: 5.512807, Train acc 0.246349, Test acc 0.304590
Epoch 2. Loss: 3.911078, Train acc 0.373232, Test acc 0.412695
Epoch 3. Loss: 3.218969, Train acc 0.454189, Test acc 0.471191
Epoch 4. Loss: 2.855459, Train acc 0.502371, Test acc 0.509082

预测

# 从测试集中取数据
data, label = mnist_test[0:9]
# 显示图片及真实标签
show_images(data)
print 'True labels: '
print get_text_labels(label)


# 预测标签
predicted_labels = net(data).argmax(axis=1)
print 'Predicted labels: '
print get_text_labels(predicted_labels.asnumpy())

Figure
True labels: 
['t-shirt', 'trouser', 'pullover', 'pullover', 'dress,', 'pullover', 'bag', 'shirt', 'sandal']
Predicted labels: 
['shirt', 'trouser', 'pullover', 'pullover', 'dress,', 'bag', 'bag', 'shirt', 'sandal']

参考资料

代码地址

https://github.com/SnailTyan/gluon-practice-code

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,117评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,328评论 1 293
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,839评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,007评论 0 206
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,384评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,629评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,880评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,593评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,313评论 1 243
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,575评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,066评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,392评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,052评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,082评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,844评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,662评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,575评论 2 270

推荐阅读更多精彩内容