Tensorflow 之一 核心基础篇

TensorFlow 简介

TensorFlow是由Jeff Dean领头的谷歌大脑团队基于谷歌内部第一代深度学习系统DistBelief改进而来的通用计算框架。DistBelief是谷歌2011年开发的内部深度学习工具,这个工具在谷歌内部已经获得了巨大的成功。

TensorFlow是谷歌于2015年11月9日正式开源的计算框架,并于2017年2月16日,TensorFlow 1.0版本正式发布, 这个版本具有里程碑的意义。TensorFlow计算框架可以很好地支持深度学习的各种算法,但它的应用也不限于深度学习。

除了在谷歌内部大规模使用之外,TensorFlow也受到了工业界和学术界的广泛关注。在Google I/O 2016的大会上,Jeff Dean提到已经有1500多个GitHub的代码库中提到了TensorFlow,而只有5个是谷歌官方提供的。如今,包括优步(Uber)、Snapchat、Twitter、京东、小米等国内外科技公司也纷纷加入了使用TensorFlow的行列。正如谷歌在TensorFlow开源原因中所提到的一样,TensorFlow正在建立一个标准,使得学术界可以更方便地交流学术研究成果,工业界可以更快地将机器学习应用于生产之中。

此外由于深度学习的巨大成功,深度学习框架也成了豪强必争之地,从下面的图表中可以看出TesnorFlow 目前占有一定的优势。


Paste_Image.png

TensorFlow 基础

TensorFlow 核心程序可以分为这两个部分:

  • 构造 computational graph
  • 运行 computational graph

computational graph

是由一系列的 operation的作为节点(nodes) 按照特定的方式排列形成的图,operation 的输入输出都是Tensor。就是说TensorFlow 就是运行computational graph, 这个图的节点是operations, 边是用来连接operation, operation 的输入输出都是Tensor;
下面是一些核心概念:

Tensor(张量):

tensor 是一个特定形状(shape)的数组,这个数组的元素必须是TensorFlow 的基础类型; 下面用例子来具体解释下:
3                                  #  这个tensor的rank 为0 并且 shape 为 []

[1.,2.,3.]                       # 这个tensor的rank 为1 并且 shape 为 [3]

[[1.,2.,3.],[4.,5.,6.]]       # 这个tensor的rank 为2 并且 shape 为 [2, 3]

[[[1.,2.,3.]],[[7.,8.,9.]]]    # 这个tensor的rank 为3 并且 shape 为 [2, 1, 3]

Operation: operation 计算的单元,在是computational graph 的 节点。

c = tf.matmul(a, b) # 创造了一个"MatMul" 类型的 Operation, 输入是a 和b 输出是 c

Session:

computational graph 必须在session中运行;
Session 是运行class的类, 一个 Session object 封装了computational graph的环境, Operation 的计算在这个环境中被执行,tensor 的结果在这个环境中被求出;

Naive实例

import tensorflow as tf
# build graph
node1 = tf.constant(3.0, tf.float32)
node2 = tf.constant(4.0)     # also tf.float32 implicitly
node3 = tf.add(node1, node2)
# Launch the graph in a session.
sess=tf.Session()
# run the graph
print(sess.run(node3))
# release resource
sess.close()

上面的naive Example 展示了一个完整的tensorflow 程序的过程,但这个程序的输入输出都是常数,而外部输入和输出的形式各异,显然还需要有其它的概念加入才能满足需求。

Feeding 和 Placeholders

TensorFlow 的 feed 机制 使你能够将数据注入到computational graph 中的任意一个tensor 中去,这种机制主要借助于 placeholder 完成。

Placeholders :

是一种 operation,这种operation必须在被执行前feed 数据进去。

a = tf.placeholder(tf.float32)
b = tf.placeholder(tf.float32)
adder_node = a + b  
with tf.Session() as sess:
    print(sess.run(adder_node,{a:3, b:4.5}))
    print(sess.run(adder_node,{a:[1, 3], b:[2, 4]}))

上面的代码块第一第二行定义了两个placeholder操作,之后第5和第6行 分别利用feed 机制注入了 将 tensor 注入到了 a, 和 b

Variable :

主要是当做graph的一些可变参数,用来使得多次执行computational graph 时改变参数的状态;

W=tf.Variable([.3],tf.float32)
b=tf.Variable([-.3],tf.float32)
x=tf.placeholder(tf.float32)
linear_model=W*x+b

上面的代码定义了variable, 但没有初始化,在TensorFlow 程序中初始化所有的Variable必须调用一个特殊的operation , 具体如下:

init=tf.global_variables_initializer()
sess.run(init)

有了以上基础知识,下面利用完成一个简单的线下拟合模型的程序

线下拟合代码

import numpy as np
import tensorflow as tf

# Model parameters
W = tf.Variable([.3], tf.float32)
b = tf.Variable([-.3], tf.float32)
# Model input and output
x=tf.placeholder(tf.float32)
linear_model=W*x+b
y=tf.placeholder(tf.float32)
# loss
loss=tf.reduce_sum(tf.square(linear_model-y))# sum of the squares

# optimizer
optimizer=tf.train.GradientDescentOptimizer(0.01)
train=optimizer.minimize(loss)

# training data
x_train = [1, 2, 3, 4]
y_train = [0, -1, -2, -3]
# training loop
init = tf.global_variables_initializer()
sess=tf.Session()
sess.run(init)# reset values to wrong
for i in range(1000):
    sess.run(train,{x:x_train,y:y_train})
# evaluate training accuracy
curr_W,curr_b,curr_loss=sess.run([W,b,loss],{x:x_train,y:y_train})
print("W: %s b: %s loss: %s"%(curr_W, curr_b, curr_loss))

上面代码可以在tensorboard 生成如下的图:


Paste_Image.png
Paste_Image.png

总结

本文主要介绍了tensorflow的一些发展历史以及现状
核心基础概念:

  • graph

  • tensor

  • operation

  • session

  • palaceholder

  • variable
    最后以一个简单的实例结束了本小节

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,716评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,558评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,431评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,127评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,511评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,692评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,915评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,664评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,412评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,616评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,105评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,424评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,098评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,096评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,869评论 0 197
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,748评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,641评论 2 271

推荐阅读更多精彩内容

  • 雨淅淅沥沥敲打着水洼激起层层水花溅在有情人的鞋面 伞与雨水碰撞撑起一块不湿衣的地方肩膀靠着胸膛安静的世界 路积了好...
    文者字清阅读 406评论 6 4
  • 不带情绪的表达 只有抽象的形容 一件事儿 叙述
    阿琴的精彩阅读 207评论 0 0
  • 本人十年销售经验,喜欢与人交流分享,我把一切告诉你,与一些销售高手的朋友建了一个蓝小雨实战创业交流裙,裙号:582...
    职场龙啸阅读 369评论 0 0
  • “爸,我妈去哪儿了?”小时候,我们最常问的一句话,就像一句口头禅,一天不知道重复多少遍。现在,我们长大了,走远了...
    莹之花开有声阅读 849评论 2 4
  • 已经找不回上个博客的账号和密码了,二年前的事了。 每次回来的第一件事就是翻翻之前的日记,一年前的,三年前的,五年前...
    大土豆和西红柿阅读 201评论 0 1