[手把手系列之一]实现单层神经网络

使用python手写实现单层神经网络[本质上学习logistic 回归的系数]。单层:有参数的一层;输入不算网络层。

网络用途

或者说应用场景:使用单层神经网络来识别一张图片是否是猫咪的图片。

数学表示

给定一张图片$X$ 送到网络中,判断这张图片是否是猫咪的照片?

网络架构

单层神经网络:

  • X(input)---> Output($\hat{y}$)

处理过程:

  • X --> linear ---> sigmoid ---> $\hat{y}$

数学表示

训练集: $X = [x{(1)},x{(2)},...,x{(i)},....,x{(m)}]$ ;对应标签:$Y=[y{(1)},y{(2)},...,y{(i)},...,y{(m)}]$ ;

对于训练集中的每张照片$x^{(i)}$ 的处理过程:

$z^{(i)} = wTx{(i)}+b$

$\hat{y}^{(i)} = a^{(i)} = sigmoid(z^{(i)})$

$L(a{(i)},y{(i)}) = -y{(i)}log(a{(i)})-(1-y{(i)})log(1-a{(i)})$

成本函数:

$J = \frac{1}{m} \sum_{i=1}^{m} L(a{(i)},y{(i)})$

最后通过反向传播算法,计算参数$W$ 和 $b$ 。

模型定义

模型定义步骤

  1. 定义模型结构(如输入向量的特征数目)
  2. 初始化模型参数;
  3. 循环:
    • 前向传播,计算loss;
    • 反向传播,计算梯度;
    • 梯度下降,更新参数;

代码实现

辅助函数

def sigmoid(z):
    """
    激活函数
    Arguments:
    z -- 标量或者是numpy array类型

    Return:
    s -- sigmoid(z)
    """
    s = 1/(1+np.exp(-z))
    
    return s

参数初始化

权重系数$W$和$b$ 全都初始化为0.

def initialize_with_zeros(dim):
    """
    网络参数w 和 b 的初始化;
    
    Argument:
    dim -- 表示权重系数w的维度[这里表示输入层的数据维度]---单层网络;
    
    Returns:
    w -- 初始化向量 shape (dim, 1)
    b -- 初始化标量 
    """
    w = np.zeros((dim, 1))#dim表示输入层X的维度,1表示本层只有一个神经元
    b = 0

    return w, b

前向传播和反向传播

由于网络为单层神经网络,前向传播过程和反向传播过程比较简单,所以整合到一起。直接计算出相应的成本函数和相应的系数梯度。

前向传播过程

训练集: $$X = [x{(1)},x{(2)},...,x{(i)},....,x{(m)}]$$ ;对应标签:$$Y=[y{(1)},y{(2)},...,y{(i)},...,y{(m)}] $$;

对于训练集中的每张照片$x^{(i)}$ 的处理过程:

$z^{(i)} = wTx{(i)}+b$

$\hat{y}^{(i)} = a^{(i)} = sigmoid(z^{(i)})$

$L(a{(i)},y{(i)}) = -y{(i)}log(a{(i)})-(1-y{(i)})log(1-a{(i)})$

成本函数:$J = \frac{1}{m} \sum_{i=1}^{m} L(a{(i)},y{(i)})$

反向传播过程

假设输入数据维度为2;权重系数维度是2.

反向传播的计算图:

image

以输入维度为2,权重系数w为2维,举例:

image
def propagate(w, b, X, Y):
    """
    实现前向传播和反向传播过程

    Arguments:
    w -- 权重系数,numpy array,size (num_px * num_px * 3, 1)
    b -- 偏置,标量
    X -- 输入的测试数据,shape (num_px * num_px * 3, 样本数m)
    Y -- 测试数据的标签向量 ( 0 不是猫, 1 猫) ,size (1, m) 

    Return:
    cost -- logistic 回归的成本函数值
    dw -- 成本函数关于参数w的梯度值
    db -- 成本函数关于参数w的梯度值
    """
    
    m = X.shape[1] # 获取样本数

    # 前向传播过程
    Z = np.dot(w.T, X) + b
    A = sigmoid(Z) #计算激活函数
    cost = -1 / m * np.sum(Y * np.log(A) + (1 - Y) * np.log(1 - A))  # 计算成本函数
    
    # 反向传播过程计算梯度
    dw = 1 / m * np.dot(X, (A - Y).T) # 向量
    db = 1 / m * np.sum(A - Y)
    assert(dw.shape == w.shape)
    assert(db.dtype == float)
    cost = np.squeeze(cost) # 成本函数
    assert(cost.shape == ())
    
    grads = {"dw": dw,
             "db": db}
    
    return grads, cost

参数优化

参数更新过程--使用梯度下降算法;

def optimize(w,b,X,y,num_iters,learning_rate,print_cost=True):
    """
    参数优化过程
    :param w: 系数矩阵
    :param b: 偏置
    :param X: 测试集
    :param y: 测试集标签
    :param num_iters: 迭代次数
    :param learning_rate: 学习率
    :param print_cost: 是否打印输出cost变化;每100次打印输出一次
    :return:
    - params: 更新后的参数
    - grads: 梯度计算值
    - costs:cost变化过程;每100次为一个记录值
    """
    costs = []

    for i in range(num_iters):
        grads, cost = propagate(w, b, X, y)
        dw = grads['dw']
        db = grads['db']
        #参数更新
        w = w - learning_rate * dw
        b = b - learning_rate * db

        if i % 100 == 0:#添加到costs
            costs.append(cost)
        if print_cost and i % 100 == 0: # 打印输出
            print("Cost after iteration {}:{}".format(i, cost))

        params = {'w': w,
                  'b': b}

    return params, grads, costs

模型预测

输入测试集,输出测试标签.

运算过程:做一次前向传播,得到输出;再对输出和threshold阈值作比较,得出类别标签。

def predict(w,b,X):
    """
    给定一张图片预测分类标签
    :param w: 训练后的权重w参数 (n_px * n_px * 3, 1)
    :param b: 训练后的偏置b参数
    :param X: 测试图片 (n_px * n_px * 3, m)
    :return: 分类标签yHat
    """
    m = X.shape[1]
    yHat = np.zeros((1, m))
    assert (w.shape == (X.shape[0], 1))
    yHat = sigmoid(np.dot(w.T, X) + b) # 前向传播过程

    # 确定预测的分类标签 threshold为0.5
    for i in range(m):
        if yHat[0, i] > 0.5:
            yHat[0, i] = 1
        else:
            yHat[0, i] = 0

    return yHat

函数整合

def model(X_train, y_train, X_test, y_test, num_iters=2000, learning_rate=0.05, print_cost=True):
    """
    将所有的函数整合到一起形成一个完整的模型
    :param X_train: 训练集 (n_px*n_px*3, m)
    :param y_train: 训练集标签 (1, m)
    :param X_test: 测试集 (n_px*n_px*3, n)
    :param y_test: 测试集标签 (1, n)
    :param num_iters: 迭代次数
    :param learning_rate: 学习率
    :param print_cost: 是否打印输出cost成本函数值
    :return:
    - d: 模型信息字典
    """
    w, b = initialize_with_zeros(X_train.shape[0])

    params, grads, costs = optimize(w, b, X_train, y_train, num_iters, learning_rate, print_cost)

    w = params['w']
    b = params['b']

    yHat_train = predict(w, b, X_train)
    yHat_test = predict(w, b, X_test)

    print("Accuracy on Training set:{:.2f}%".format(100*np.mean(y_train == yHat_train)))
    print("Accuracy on Test set:{:.2f}%".format(100*np.mean(y_test == yHat_test)))

    d = {
        'costs': costs,
        'yHat_train': yHat_train,
        'yHat_test': yHat_test,
        'w': w,
        'b': b,
        'learning_rate': learning_rate,
        'num_iters': num_iters
    }

    return d

测试:500次迭代、学习率为0.001;

d = model(X_train,y_train,X_test,y_test,num_iters=500,learning_rate=0.001)

输出结果变化:

Cost after iteration 0:0.6931471805599453
Cost after iteration 100:0.5912894260003537
Cost after iteration 200:0.5557961107127088
Cost after iteration 300:0.5289765131562365
Cost after iteration 400:0.5068812917435517
Accuracy on Training set:77.51%
Accuracy on Test set:56.00%

小结

  1. 向量化运算能大大提高运算效率;编码实现时最好不要使用for-loop 循环;
  2. 理解网络运算过程时,画一个运算图很很大程度上帮助理解;
  3. 编码实现时,注意变量的shape变化是否正确!

完整代码:>>点我

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,015评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,262评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,727评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,986评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,363评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,610评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,871评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,582评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,297评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,551评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,053评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,385评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,035评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,079评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,841评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,648评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,550评论 2 270

推荐阅读更多精彩内容