2.DNN - BGD


import numpy as np

# 输入规格
# X -  R(batch_size,nx) , Y - R(batch_size , 1)   W - R(1,nx)    b — R (1,1)

def layer(X, W, b):
    # in: X - R(batch_size,nx) W - R(1,nx)b - R(1,1)
    # out: z - R(batch_size,1) - 同Y
    z = np.matmul(W, X.T) + b
    z = z.T
    return z

def sigmoid(z):
    # in : z - R(batch_size,1)
    # out: pre_y - R(batch_size,1)
    return 1 / (1 + np.exp(-z))

def lossfunction(pre_y, true_y):
    # in: pre_y -R(bact_size,1) true_y - R(batch_size,1)
    # out: loss  - R(batch_size,1)
    return 0.5 * (pre_y - true_y) ** 2

def forward(X, W, b):
    # in: X ,W b 
    # out: pre_y - R(batch_size,1)
    z = layer(X, W, b) # R(batch_size,1)
    pre_y = sigmoid(z)
    return pre_y

def layer_grad(X, W, b):
    # in: X,W,b
    # out: [X.T,dz_b] X.T -R(nx,batch_size)  dz_b - R(batch_size,1) 同Y
    
    dz_b = np.ones([X.shape[0],1]) 
    return X.T, dz_b

def sigmoid_grad(pre_y):
    # in: pre_y - R(batch_size,1)
    # out: dy_z - R(batch_size,1)
    return pre_y * (1 - pre_y)

def lossfunction_grad(pre_y, true_y):
    # in: pre_y , true_y
    # out: dl_y - R(batch_size,1)
    # print(pre_y.shape, true_y.shape)
    return pre_y - true_y

def backward(X, W, b, dl_y):
    
    # in : X,W,b,dl_y dl_y - R(batch_size,1)
    # out : dw,db  dw - R(1,nx) db - R(1,1) 
    
    pre_y = forward(X, W, b) # pre_y - R(batch_size,1)
    # print("pred_y: {}".format(pre_y))
    dy_z = sigmoid_grad(pre_y) # dy_z -  R(batch_size,1)
    dz_w, dz_b = layer_grad(X, W, b) # dz_w - R(nx,batch_size) dz_b - R(batch_size,1)
    
    # print(dl_y.shape, dy_z.shape, dz_w.T.shape)
    dw = dl_y * dy_z * dz_w.T # R(batch_size,nx)
    
    dw = np.sum(dw,axis=0) #  按列累加  dw - R(1,nx)
    dw = dw.reshape([1,dw.shape[0]])
    
    
    db = dl_y * dy_z  # R(batch_size,1)
    
    db = np.sum(db,axis=0) # 按列累加 db - R(1,1)
    db = db.reshape([1,1])

    
    return dw, db

class DNN(object):
    def __init__(self, batch_size, nx, lr):
        self.lr = lr
        self.bt = batch_size
        self.w, self.b = self.__init__weight(nx)

    def __init__weight(self,nx):
        w = np.random.randn(1,nx)
        b = np.random.randn(1,1)
        return w, b
    
    def forward(self, X):
        return forward(X, self.w, self.b)
    
    def backward(self, X, dl_y):
        return backward(X, self.w, self.b, dl_y)
    
    def step(self, dw, db):
        self.w -= self.lr * dw
        self.b -= self.lr * db



def train(model, X, Y,batch_size, epochs):
    # X - R [Data_size,nx] Y - R[Data_size,1] 
    losses = []
    for e in range(epochs):
        count_loss = 0
        N = X.shape[0]  # Data_size
        indexs = list(range(N)) 
        np.random.shuffle(indexs)  # BGP
        i = 0
        while i < N:
            batch_indxs = indexs[i:i + batch_size] # R[batch_size,1]
            batch_x = X[batch_indxs] # R[batch_size,nx]
            batch_y = Y[batch_indxs] # R[batch_size,1]
            batch_x = batch_x.reshape([batch_size,nx])
            batch_y = batch_y.reshape([batch_size,1])
            batch_pre_y = model.forward(batch_x) # R[batch_size,1]
            dl_y = lossfunction_grad(batch_pre_y, batch_y) # R[bt,1]

            dw, db = model.backward(batch_x, dl_y) # R[1,nx] , R[1,1]

            model.step(dw, db) 

            loss = lossfunction(batch_pre_y, batch_y)  # loss -R(batch_size,1)
            loss = np.mean(loss)
            
            # print("db: {}".format(db))
            print("epoch: {}, batch: {}, loss: {}".format(e, i // batch_size, loss))
            
            count_loss += loss

            i += batch_size

        print('epochs:{},loss:{}'.format(e, count_loss / batch_size))
        losses.append(count_loss)
    return np.array(losses)

#  开始咯!


batch_size = 100
nx = 10
epochs = 10
train_N = 10000
test_N =10000
lr = 0.001

mu0 = 0
mu1 = 10

X0 = np.random.randn((train_N + test_N) // 2, nx) * 10 + mu0 
X1 = np.random.randn((train_N + test_N) // 2, nx) * 10 + mu1

Y0 = np.zeros(X0.shape[0])
Y1 = np.ones(X1.shape[0])


X = np.concatenate((X0, X1))  # 输入的 X - R(Data_size,nx) 默认axis=0 竖着拼接
Y = np.concatenate((Y0, Y1))  # Y - R(Data_size,1)


from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.5) # 分成训练集 和测试集

model = DNN(batch_size,nx,lr)

losses = train(model, X_train, y_train,batch_size, epochs)

# 来! 画个图
import matplotlib.pyplot as plt
plt.plot(range(len(losses)), losses)

# 看看结果
def test(test_X, test_y):
    pred_y = model.forward(test_X)
    pred_y = pred_y
    pred_y[pred_y > 0.5] = 1
    pred_y[pred_y <= 0.5] = 0 
    test_y = test_y.squeeze()
    
    return np.sum(pred_y == test_y) / len(test_y)

test(X_test, y_test)
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,219评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,363评论 1 293
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,933评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,020评论 0 206
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,400评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,640评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,896评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,597评论 0 199
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,327评论 1 244
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,581评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,072评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,399评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,054评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,083评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,849评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,672评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,585评论 2 270

推荐阅读更多精彩内容