TensorFlow 基本概念以及神经网络入门

张量

TensorFlow 中的tensor就张量,可见张量在tensorflow中低位非同一般。在tensorflow中所有的数据都是通过张量的形式表示的。张量可以简单的理解为多维数组,其中零阶张量表示标量,就是一个数。第n阶张量表示n维数组。但张量在tensorflow中的实现并不是直接采用数组的形式,它只是对tensorflow中运算结果的引用。在张量中并没有真正的保存数字,它只是保存如何得到这些数字的计算过程。比如代码的运行结果并不会得到加法的结果,而只是保存如何得到结果的过程的引用

张量使用

import tensorflow as tf
a = tf.constant([1, 2, 3], name="a")
b = tf.constant([2, 3, 4], name="b")
result = a + b
print(result)

计算图

Tensorflow中flow就简单可以理解为就是计算图。它表达了张量之间通过计算相互转化的过程。Tensorflow程序一般分为两个阶段。在第一个阶段
定义计算图中所有的计算。第二阶段执行计算。在tensorflow中系统会自动维护一个默认的计算图,通过tf.get_default_graph函数可以获得当前
默认的计算图。以下代码示意了如何获得默认计算图。不同计算图上的张量、运算不会共享

import tensorflow as tf
# 不同计算图上的张量、运算不会共享
g1 = tf.Graph()  # 生成新的计算图
with g1.as_default():
    v = tf.get_variable("v", initializer=tf.zeros_initializer(), shape=[1])
g2 = tf.Graph()  # 生成新的计算图
with g2.as_default():
    v = tf.get_variable("v", initializer=tf.ones_initializer(), shape=[1])
# 读取计算图g1中的v
with tf.Session(graph=g1) as sess:
    tf.global_variables_initializer().run()
    with tf.variable_scope("", reuse=True):
        print("v in g1: %s" % str(sess.run(tf.get_variable("v"))))
# 读取计算图g2中的v
with tf.Session(graph=g2) as sess:
    tf.global_variables_initializer().run()
    with tf.variable_scope("", reuse=True):
        print("v in g2: %s" % str(sess.run(tf.get_variable("v"))))

会话

上例中并没有输出result的值,那么如何得到result值呢?答案是会话(session)。tensorflow中通过会话来执行定义好的运算。会话管理并管理tensorflow程序运行时需要的所有资源。tensorflow中的使用会话有两种方式

  • 需要明确的打开和关闭会话
sess = tf.Session()
print(sess.run(result)) # 和下面一行功能一直
print(result.eval(session=sess))
sess.close()
  • 用python中的上下文管理器, 关闭、异常处理由管理器来完成
with tf.Session() as sess:
    print(sess.run(result))

变量

tensorflow变量定义:

import tensorflow as tf
b1 = tf.Variable(tf.zeros([3])) # 常数生成
b2 = tf.Variable([1, 2, 3]) # 
b3 = tf.Variable(tf.random_normal([2, 3], stddev=1, seed=1)) # 随机函数生成,指定seed那么每次生成的结果都一样
b4 = tf.Variable(b3.initialized_value() * 3) # 别的变量的初始化值生成
with tf.Session() as sess:
    sess.run(b1.initializer)  # tensorflow中变量的初始化需要被明确的调用
    sess.run(b2.initializer)
    sess.run(b3.initializer)
    sess.run(b4.initializer)
    print(sess.run(b1))
    print(sess.run(b2))
    print(sess.run(b3))
    print(sess.run(b4))
with tf.Session() as sess:
    init_op = tf.global_variables_initializer()  # 省去上面一个一个的初始化的繁琐。一个函数初始化所有的变量
    sess.run(init_op)
    print(sess.run(b1))
    print(sess.run(b2))
    print(sess.run(b3))
    print(sess.run(b4))

tensorflow中变量的初始化有三种方式

  • 随机数生成函数
  • 常数生成函数
  • 其他变量的初始值

<center>tensorflow 随机生成函数</center>

函数名称 随机数分布 主要参数
tf.random_normal 正太分布 平均值、标准差、取值类型
tf.truncated_normal 正太分布、如果随机出来的值偏离平均值2个标准差,那这个数重新随机 平均值、标准差、取值类型
tf.random_uniform 均匀分布 平均值、标准差、取值类型
tf.random_gamma Gamma分布 平均值、标准差、取值类型

<center>tensorflow常数生成函数</center>

函数名称 功能 样例
tf.zeros 产生全0的数组 tf.zeros([2,3],int32)->[[0,0,0],[0,0,0]]
tf.ones 产生全1的数组 tf.ones([2,3],int32)->[[1,1,1],[1,1,1]]
tf.filll 产生一个全部为给定数字的数组 tf.fill([2,3],9)->[[9,9,9],[9,9,9]]
tf.constant 产生一个给定值的常量 tf.constant([1,2,3])->[1,2,3]

张量、变量的区别与联系

tensorflow中所有的数据都是通过张量来组织的,那么为什么又出现了变量了呢?在tensorflow中变量声明函数tf.Variable()是一个运算。这个运算的结果就是一个张量,所以变量是一种特殊的张量。tf.constant等常量函数生成的张量是不可变的,没有assign操作,只能引用于值,不能引用于操作,但是tf.Variable()声明的变量是可变的,有assign操作,且可以应用于操作,必须tf.Variable(a+b).

一个完整的神经网络样例程序

下面给出一个实例程序来训练如下的神经网络(全连接神经网络),输入2个节点,隐藏层3个节点,输出一个节点。主要用来学习代码应该这么写

import tensorflow as tf
import numpy as np
# sgd batch的大小
batch_size = 8
# 定义神经网络的参数
w1 = tf.Variable(tf.random_normal((2, 3), stddev=1, seed=1))
w2 = tf.Variable(tf.random_normal((3, 1), stddev=1, seed=1))
# 定义输入, 占位符
x = tf.placeholder(tf.float32, shape=(None, 2), name='x-input')
y_ = tf.placeholder(tf.float32, shape=(None, 1), name='y-input')
# 定义神经网络前项传播过程
a = tf.matmul(x, w1)
y = tf.matmul(a, w2)
# 定义损失函数和反向传播过程
y = tf.sigmoid(y)
# 定义损失函数,交叉熵
cross_entropy = -tf.reduce_mean(
    y_ * tf.log(tf.clip_by_value(y, 1e-10, 1.0)) + (1 - y) * tf.log(
        tf.clip_by_value(1 - y, 1e-10, 1.0)))  #clip_by_value 参数修剪,防止0的数,大于1的数
# 定义目标函数
train_step = tf.train.AdamOptimizer(0.001).minimize(cross_entropy)
# 生成一个模拟数据集
rdm = np.random.RandomState(1)
dataset_size = 128
# 样本
X = rdm.rand(dataset_size, 2)
# label, Attention: 这里的Y是一个矩阵
Y = [[int(x1 + x2 < 1)] for (x1, x2) in X]
with tf.Session() as sess:
    init_op = tf.global_variables_initializer()
    # 初始化变量
    sess.run(init_op)
    STEPS = 5000
    for i in range(STEPS):
#         print("step:%d,start", i)
        start = (i * batch_size) % dataset_size
        end = min(start + batch_size, dataset_size)
        sess.run(train_step, feed_dict={x: X[start:end], y_: Y[start:end]})
        if (i % 1000 == 0):
            total_cross_entropy = sess.run(
                cross_entropy, feed_dict={
                    x: X[start:end],
                    y_: Y[start:end]
                })
            print("step:%d, %f", i, total_cross_entropy)
    print(sess.run(w1))
    print(sess.run(w2))

总结

一个完整的神经网络程序需要包含以下三个步骤

  1. 定义神经网络的结果和前项传播的结果
  2. 定义损失函数已经选择反向传播的优化算法
  3. 生成会话已经在训练数据上反复执行方向传播算法
import numpy as np
import tensorflow as tf
rdm = np.random.RandomState(1)
X = rdm.rand(128, 2)
Y = [[int(x1+x2< 1)] for (x1,x2) in X]
print(Y[0:8])
w1 = tf.Variable(tf.random_normal((2, 3), stddev=1, seed=1))
w2 = tf.Variable(tf.random_normal((3, 1), stddev=1, seed=128))
with tf.Session() as sess:
    init_op = tf.global_variables_initializer()
    sess.run(init_op)
    print(sess.run(w1))
    print(sess.run(w2))
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,298评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,701评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 107,078评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,687评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,018评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,410评论 1 211
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,729评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,412评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,124评论 1 239
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,379评论 2 242
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,903评论 1 257
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,268评论 2 251
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,894评论 3 233
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,014评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,770评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,435评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,312评论 2 260

推荐阅读更多精彩内容