一步步上手TensorFlow——基础知识

之前发过了几篇关于机器学习的帖子,使用的框架多为TensorFlow。
TensorFlow 是一个用于人工智能的开源神器。作为常用的机器学习框架,可被用于语音识别或图像识别等多项机器学习和深度学习领域,且上手简单,教材丰富。
TensorFlow从名字上,我们就可以对他有一定的理解。
Tensor:张量,表示N维数组。
Flow:流,表示给予数据流图的计算。
TensorFlow一句话:一个采用数据流图,用于数值计算的开源软件库。节点在图中表示数学操作,图中的线则表示在节点间相互联系的多维数据数组,即张量。
本篇博客的重点在于TensorFlow基础知识的讲解,包括安装,Graph,Session,Variable,Feed,Fetch的讲解。
更多关于TensorFlow的知识,可以登陆其官网进行查询
https://www.tensorflow.org

TensorFlow的安装

工欲善其事 必先利其器,安装tf自然是第一步。
首先安装好python,我使用的是python3.6,确认自己是否安装有pip。
使用这两句话可以查询自己的pip是否安装正确

$ pip -V  # for Python 2.7
$ pip3 -V # for Python 3.n 

安装TensorFlow

$ pip -V  # for Python 2.7
$ pip3 -V # for Python 3.n 

如果上一句代码执行失败,执行如下代码

 $ sudo pip  install --upgrade tfBinaryURL   # Python 2.7
 $ sudo pip3 install --upgrade tfBinaryURL   # Python 3.n 

如果想要安装其他版本的tf,执行如下代码,自行修改URL就可以安装不同版本的tf了

$ sudo pip3 install --upgrade \
 https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.6.0-py3-none-any.whl 

安装好后进入python

import tensorflow as tf
hello = tf.constant('Hello, TensorFlow!')
sess = tf.Session()
print(sess.run(hello))

正确输出如下内容,表示安装成功

Hello, TensorFlow!

TensorFlow的基本概念

TensorFlow就是一个采用数据流图,用于数值计算的开源软件库。节点在图中表示数学操作,图中的线则表示在节点间相互联系的多维数据数组,即张量。
[图片上传失败...(image-ad4af5-1526269253221)]
此图来自于TensorFlow中文社区

图(Graph):表示计算任务。

会话(Session):建立会话,此时会生成一张空图;在会话中添加节点和边,形成一张图,一个会话可以有多个图,通过执行这些图得到结果。

张量(Tensor):一个N维数组,用来表示数据。

变量(Variable):用来记录一些数据和状态。

feed和fetch:用于对数据进行操作

创建图

TensorFlow 是一个编程系统, 使用图来表示计算任务。 图中的节点被称之为 op (operation 的缩写)。一个 op 获得 0 个或多个 Tensor, 执行计算, 产生 0 个或多个 Tensor。
每个 Tensor 是一个类型化的多维数组. 例如, 你可以将一小组图像集表示为一个四维浮点数数组, 这四个维度分别是 [batch, height, width, channels]。
构建图的第一步, 是创建源op。
源op不需要任何输入, 例如 常量 (Constant)。源 op 的输出被传递给其它 op 做运算.
创建一个图

import tensorflow as tf
# 创建一个常量 op, 产生一个 1x2 矩阵. 这个 op 被作为一个节点加到默认图中.
t1 = tf.constant([[3.,3.]])
#创建另外一个常量 op, 产生一个 2x1 矩阵.
t2 = tf.constant([[4.],[4.]])
#创建一个矩阵乘法 matmul op , 把 'matrix1' 和 'matrix2' 作为输入
# 返回值 'product' 代表矩阵乘法的结果.
product = tf.matmul(t1,t2)

用到的两个函数:

tf.constant(value, dtype=None, shape=None, name='Const')#用于创建一个内容为value,类型为dtype,大小为shape的常量Tensor。

tf.matmul(a, b, transpose_a=False, transpose_b=False, a_is_sparse=False, b_is_sparse=False, name=None)#将矩阵a与矩阵b相乘,返回a*b的结果

启动图

上一步中完成后,默认图中现有三个节点,两个constant op,一个matmul op。但这仅仅是完成了图的创建,如果要得到最终的结果,我们必须要启动这个图。
启动图的第一步就是构造一个会话(Sess),创建一个Session对象。调用 sess 的 run() 方法来执行矩阵乘法 op, 传入 product 作为该方法的参数。函数调用 'run(product)' 触发了图中三个 op (两个常量 op 和一个矩阵乘法 op) 的执行。最终任务结束,关闭会话。

# 启动默认图.
sess = tf.Session()
# 调用 sess 的 'run()' 方法来执行矩阵乘法 op, 传入 'product' 作为该方法的参数.
result = sess.run(product)
print (result)
# 任务完成, 关闭会话.
sess.close()

最终的输出结果为:

[[ 24.]]#没问题,算对了

我们也可以使用with代码块来实现对话的自动关闭,在离开with代码块时,会话会自动关闭。

with tf.Session() as sess:
    result = sess.run(product)
    print(result)

最终的输出结果为:

[[ 24.]]

交互式对话

使用上述方法,会出现一个对话被绑定在一个变量上的情况,有的时候我们并不想这么做,所以我们可以使用交互式对话的方式避免这样的情况。
使用 Tensor.eval() 和 Operation.run() 方法代替 Session.run()

sess = tf.InteractiveSession()
x = tf.Variable([1.0, 2.0]) #后面会讲到Variable
a = tf.constant([5.0, 3.0])
# 使用初始化器 initializer op 的 run() 方法初始化 'x',由于x是一个Variable,所以我们要对其进行初始化。
x.initializer.run()
# 增加一个减法 subtract op, 从 'x' 减去 'a'. 运行减法 op, 输出结果
sub = tf.subtract(x,a)
print (sub.eval())

最终的输出结果为:

[-4. -1.] #没错,又算对了

张量(Tensor)

TensorFlow的名字中第一个单词就是Tensor,可见Tensor在TensorFlow中的重要性。
Tensor可以理解为是一个数据结构,其实就是一个N维数组。TensorFlow用tensor表示所有的数据。
在计算图中,操作间传递的数据都是tensor。
一个 tensor包含一个静态类型rank,和一个shape。

阶(Rank)

阶(Rank)用于描述张量的维数
一阶Tensor可以理解为数学上的向量,二阶Tensor可以理解为数学上的矩阵。
对于一个二阶张量你可以用语句t[i, j]来访问其中的任何元素。而对于三阶张量你可以用't[i, j, k]'来访问其中的任何元素。

with tf.Session() as sess:
    t1 = tf.constant([1.0,2.0,3.0])
    t2 = tf.constant([[1.0,2.0],[3.0,4.0]])
    t3 = tf.constant([[[2.0,4.0],[6.0,8.0]],[[1.0,2.0],[3.0,4.0]]])
    print(t1[0].eval())
    print(t2[1].eval())
    print(t2[1,0].eval())
    print(t3[1,0].eval())

输出结果如下:

1.0
[ 3.  4.]
3.0
[ 1.  2.]

不同阶的数学表示
[图片上传失败...(image-6af2d5-1526269253221)]

形状(Shape)

这个属性与nparray的shape属性基本一致,因为一个Tensor可以理解为是一个N维数组,所以Shape属性就是获取数组的大小。

with tf.Session() as sess:
    t1 = tf.constant([1.0,2.0,3.0])
    t2 = tf.constant([[1.0,2.0],[3.0,4.0]])
    t3 = tf.constant([[[2.0,4.0],[6.0,8.0]],[[1.0,2.0],[3.0,4.0]]])
    print(t1.shape)
    print(t2.shape)
    print(t3.shape)

输出结果如下:

(3,)
(2, 2)
(2, 2, 2)

数据类型(dtype)

不同的数据类型
[图片上传失败...(image-d88d2d-1526269253221)]

变量

变量用来记录一些数据和状态,维护图执行过程中的状态信息。
当训练模型时,用变量来存储和更新参数。变量包含张量 (Tensor)存放于内存的缓存区。建模时它们需要被明确地初始化,模型训练后它们必须被存储到磁盘。这些变量的值可在之后模型训练和分析是被加载。

变量的创建

当创建一个变量时,可以一个张量作为初始值传入构造函数Variable()。初始值可以是常量也可以是随机值。
但注意,初始化变量时,都需要指定传入张量的Shape,Tensor的Shape会自动成为变量的Shape。

#创建两个变量
weights = tf.Variable(tf.random_normal([784, 20], stddev=0.35),name="weights")
biases = tf.Variable(tf.zeros([20]), name="biases")

变量的初始化

变量的初始化必须在模型的其它操作运行之前先明确地完成。最简单的方法就是添加一个给所有变量初始化的操作,并在使用模型之前首先运行那个操作。
除此之外,也可以从检查点文件中重新获取变量值。
使用tf.initialize_all_variables()初始化所有变量

init = tf.global_variables_initializer()

使用tf.initialize_all_variables()将所有的变量并行的初始化。
我们也可以使用一个变量的initialized_value()方法初始化另一个变量的值。

#使用weights初始化w2
w2 = tf.Variable(w1.initialized_value(), name="w2")

最后我们整体执行一下

#创建两个变量
w1 = tf.Variable(tf.random_normal([784, 20], stddev=0.35),name="weights")
b1 = tf.Variable(tf.zeros([20]), name="biases")
#初始化所有变量
init = tf.global_variables_initializer()
#使用weights初始化w2
w2 = tf.Variable(w1.initialized_value(), name="w2")
with tf.Session() as sess:
  sess.run(init)
  print(w1)
  print(b1)
  print(w2)

输出结果:

<tf.Variable 'weights:0' shape=(784, 20) dtype=float32_ref>
<tf.Variable 'biases:0' shape=(20,) dtype=float32_ref>
<tf.Variable 'w2:0' shape=(784, 20) dtype=float32_ref>

变量的保存与恢复

我们在训练模型的过程中,经常需要将已经训练好的模型进行保存,这个时候我们需要将其变量进行保存,并在下一次使用时进行恢复。
使用tf.train.Saver()创建一个Saver来管理模型中的所有变量。

变量的保存

# 创建一些变量
w1 = tf.Variable(tf.random_normal([784, 20], stddev=0.35),name="weights")
b1 = tf.Variable(tf.zeros([20]), name="biases")
# 初始化
init_op = tf.global_variables_initializer()
# 创建一个Saver
saver = tf.train.Saver()
with tf.Session() as sess:
  sess.run(init_op)
  save_path = saver.save(sess, "./tmp/model.ckpt")

保存成功后,一般会得到这四个文件
[图片上传失败...(image-298326-1526269253221)]

变量的恢复
此时我们不再需要对变量进行初始化

# 创建一些变量
w1 = tf.Variable(tf.random_normal([784, 20], stddev=0.35),name="weights")
b1 = tf.Variable(tf.zeros([20]), name="biases")
# 创建一个Saver
saver = tf.train.Saver()
with tf.Session() as sess:
  # Restore variables from disk.
  saver.restore(sess, "./tmp/model.ckpt")

使用变量实现一个计数器

# 创建一个变量, 初始化为标量 0.
state = tf.Variable(0, name="counter")
# 创建一个 op, 其作用是使 state 增加 1
one = tf.constant(1)
new = tf.add(state, one)
update = tf.assign(state, new) #使用assign将 new 赋值给 state
# 启动图后, 变量必须先经过`初始化` (init) op 初始化,
# 首先必须增加一个`初始化` op 到图中.
init_op = tf.global_variables_initializer()
# 启动图, 运行 op
with tf.Session() as sess:
  # 运行 'init' op
  sess.run(init_op)
  # 打印 'state' 的初始值
  print (sess.run(state))
  # 运行 op, 更新 'state', 并打印 'state'
  for _ in range(3):
    sess.run(update)
    print(sess.run(state))

输出结果:

0
1
2
3

其中的一个函数:tf.assign(ref, value, validate_shape=None, use_locking=None, name=None),函数完成了将value赋值给ref的作用。其中:ref 必须是tf.Variable创建的tensor,如果ref=tf.constant()会报错!

Fetch

Fetch用于取回操作的输出内容。
为了取回操作的输出内容,可以在使用 Session对象的 run()调用执行图时,传入一些 tensor,这些tensor会帮助你取回结果。
需要获取的多个 tensor 值,在 op 的一次运行中一起获得(而不是逐个去获取 tensor)。

input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
added= tf.add(input1, input2)
mul = tf.multiply(input1, added)
with tf.Session() as sess:
  result = sess.run([mul, added])  #需要获取的多个 tensor 值,在 op 的一次运行中一起获得(而不是逐个去获取 tensor)。
  print (result)

输出的结果:

[15.0, 5.0]

Feed

feed 使用一个tensor值临时替换一个操作的输出结果。
可以将feed数据作为run()调用的参数。
feed只在调用它的方法内有效,方法结后,feed就会消失。
最常见的用例是将某些特殊的操作指定为 "feed" 操作, 标记的方法是使用 tf.placeholder() 为这些操作创建占位符。

input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
output = tf.multiply(input1, input2)
with tf.Session() as sess:
  print (sess.run([output], feed_dict={input1:[5.], input2:[2.]}))

输出的结果:

[array([ 10.], dtype=float32)]

小结

本篇博客讲的主要是讲解TensorFlow的基本知识,本次小项目的代码点击此处即可下载,省事情吧,都不用git clone😂😂😂

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 156,907评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,546评论 1 289
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,705评论 0 238
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,624评论 0 203
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,940评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,371评论 1 210
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,672评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,396评论 0 195
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,069评论 1 238
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,350评论 2 242
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,876评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,243评论 2 251
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,847评论 3 231
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,004评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,755评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,378评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,266评论 2 259

推荐阅读更多精彩内容