1.LogisticRegression

这里就不仔细介绍 原理了
详细的原理请参考吴恩达 深度学习 课程 移步网易教育好啦
PS:我也有写视频课的笔记 如果觉得有问题可以阅览一下我的笔记哦 也许有提到你的疑问啦 我是按照自己听课的时候思维逻辑写的笔记
(超小声:有够懒的 笔记不知道什么时候才会跟着补完……

我知道写下这些可能没有人会看到 但都是我一行一行写的代码
如果你看到了 给我点个赞吧 鼓励一下小朋友吧 :b

下面的代码都是jupyter notebook
可以直接运行的代码! 自己亲手敲的那种!(叉腰~)
具体的介绍 我就用注释写在下面啦

有问题留言哦

import numpy as np

# input: x, w, b output: z 
def layer(x,w,b):
    return np.dot(x , w)+b

# 定义 损失函数
# input: pred_y & true_y output : loss(pre_y,true_y)
def mse(pred_y, true_y):
    return 0.5 * (pred_y - true_y)**2

# input: pre_y & true_y output: dl_y

def mse_grad(pred_y, true_y):
    return pred_y - true_y

# 激活函数 
# input: (w*x+b) 线性模型 output:  pre_y
def sigmoid(z):
    return 1 / (1 + np.exp(-z))

# input : pre_y output:dy_z
def sigmoid_grad(y):
    return y * (1-y)


# input: x   output: dz_w,dz_b
def layer_grad(x):
    return x, 1

# input: x,w,b   output ---> pre_y
def forward(x,w,b):
    z=layer(x,w,b)
    return sigmoid(z)

# backward :input: pre_y , true_y  output ---> dw,db
# 反向传播的主要目的就是更新dw,db 这里的导数计算需要一定的微积分基础哦
def backward(pred_y, true_y,x):
    dl_y = mse_grad(pred_y,true_y)
    dy_z = sigmoid_grad(pred_y)
    dz_w, dz_b = layer_grad(x)
    
    dw = dl_y * dy_z * dz_w
    db = dl_y * dy_z
    
    return dw, db

# 这里多说两句 一定要算清楚 计算是最基础的 需要自己动笔算的鸭
# 这里变量比较多 主要是要弄清楚每个函数的 输入和输出
# 第一次写 我也比较懵逼 所以我都标注了每个函数的输入和输出 
# 因为当函数变多的时候 如果自己都搞不清楚 输入和输出的话 很容易就把自己搞晕了

# 定义class
class LogisticRegression(object):

    def __init__(self, in_size, lr):
        self.w = np.random.randn(in_size)
        self.b = np.random.randn(1)
        self.lr = lr
    
    def forward(self,x):
        return forward(x,self.w,self.b)
    
    def backward(self, pred_y, true_y, x):
        return backward(pred_y, true_y, x)
    
# 更新参数(w,b)
    def step(self, dw, db):
        self.w -= self.lr * dw
        self.b -= self.lr * db

# 训练函数 其实都是调用之前写好的函数了
def train(model, X, Y, epochs):
    losses = []
 # epochs : 训练轮次
    for i in range(epochs):
        inds = list(range(X.shape[0]))
        np.random.shuffle(inds) # 打乱顺序 : 随机梯度下降
        loss = 0
      
        for ind in inds:
        # 从输入矩阵里面 取出来一个样本
            x = X[ind] 
            y = Y[ind]
            
            pred_y = model.forward(x)
            
            #累计loss 
            loss += mse(pred_y, y) 
                        
            dw, db = model.backward(pred_y, y, x)
            model.step(dw, db)
        
        # 输出每一轮的loss 可以观察到每一轮数值都在下降
        print("epoch{}, loss = {}".format(i, loss / X.shape[0]))
        
        losses.append(loss)
    
    return losses


# 观察一下训练的结果 输入的是准确率
def test(model, X, Y):
    correct_cnt = 0
    for i in range(X.shape[0]):
        x = X[I]
        y = Y[I]
        pred_y = model.forward(x)
        
        pred_y = 1 if pred_y > 0.5 else 0
        
        correct_cnt += (y == pred_y)
    
    return correct_cnt / X.shape[0]

n = 10000    #样本维数
input_size = 5 
epochs = 500

#初始化w,b
w = np.random.randn(input_size)
b = np.random.randn(1)

# model 实例
true_lr = LogisticRegression(input_size, 0.001)
true_lr.w = w
true_lr.b = b


# 随机生成的数据 这样生成的数据是服从正态分布的
X = [np.random.randn(input_size) for i in range(n)]
Y = [1 if true_lr.forward(X[i]) > 0.5 else 0 for i in range(n)]
X = np.array(X)
Y = np.array(Y)

lr = LogisticRegression(input_size, 0.01)

# 激动人心的时刻!! 让我们开始训练吧!干巴爹
losses = train(lr, X, Y, epochs)

#让我们欣赏一下 自己的杰作 (画个图 看看)
import matplotlib.pyplot as plt
plt.plot(range(epochs), losses)

#测试一下看看
test_X = [np.random.randn(input_size) for i in range(n)]
test_Y = [1 if true_lr.forward(X[i]) > 0.5 else 0 for i in range(n)]
test_X = np.array(test_X)
test_Y = np.array(test_Y)

test(lr, test_X, test_Y)

哈哈哈 ! 我很满意!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,219评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,363评论 1 293
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,933评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,020评论 0 206
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,400评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,640评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,896评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,597评论 0 199
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,327评论 1 244
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,581评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,072评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,399评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,054评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,083评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,849评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,672评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,585评论 2 270

推荐阅读更多精彩内容