基于tensorflow的最简单的强化学习入门-part0:Q-learning和神经网络

基于tensorflow的最简单的强化学习入门-part0:Q学习和神经网络

本文翻译自 Simple Reinforcement Learning with Tensorflow Part 0: Q-Learning with Tables and Neural Networks, 作者是 Arthur Juliani, 原文链接

在这个增强学习系列的教程中,我们打算探索一些列称为==Q-learning==的增强学习算法,它和之前教程介绍过的基于==策略梯度policy-base==的增强算法有所不同。

我们将从实现一个简单的查找表算法开始,然后展示如何使用tensorflow实现神经网络算法。考虑到上述安排,我们从基础开始,所以这篇教程作为整个系列的part-0。希望通过这个系列的教程,我们在理解Q-learning之后,能够结合policy gradient和Q-learning方法构建更好的增强学习网络。(如果你对策略网络更感兴趣或者你已经有一些Q-learning的经验,那么你可以从这里开始阅读)

策略梯度算法(policy gradient)试着学习某个函数,该函数可以直接把==状态(state)映射为动作(action)的概率分布==。Q-learning和策略梯度算法不一样,它试着学习在每个状态下对应的值,并且依赖该状态执行某一个动作。虽然两种方法最终都允许我们给定情况下采取特定的行动,但是实现该目的的方法是不相同的。你也许已经听说深度Q-learning可以玩atari游戏,我们将要在这里讨论和实现这些更复杂和强大的Q-learning算法。

译者注:如果要深入了解基于策略梯度的增强学习算法,可以参考Andrej Karpathy的文章,Deep Reinforcement Learning: Pong from Pixels

Tabular Approaches for Tabular Environment(表格算法)

FrozenLake环境的规则

在本篇教程中,我们将要试着去解决来自于OpenAI gymFrozenLake问题。OpenAI gym提供了一种简单的环境,让研究者在一些简单的游戏中试验他们的方法。比如FrozenLake,该游戏包括一个4*4的网络格子,每个格子可以是==起始块,目标块、冻结块或者危险块==。我们的目标是让agent学习从开始块如何行动到目标块上,而不是移动到危险块上。agent可以选择向上、向下、向左或者向右移动,同时游戏中还有可能吹来一阵风,将agent吹到任意的方块上。在这种情况下,每个时刻都有完美的策略是不能的,但是如何避免危险洞并且到达目标洞肯定是可行的。

增强学习需要我们定义==奖励函数(reward function)==,那么定义每一步的奖励是0,如果进入目标快则奖励为1。因此我们需要一种算法能够学习到长期的期望奖励,而本教程要讲的Q-learning提供了这种机制。

Q-learning最简单的实现方式是一个基于所有可能的状态和执行动作的查找表。在表中的每个单元格中,我们学习到在给定状态下执行特定动作的是否有效的值。在FrozenLake游戏中,我们有16种可能的状态和4种可能的动作,给出了16*4的Q值表。我们一开始初始化表格中的所有值为0,然后根据我们观察到的各种动作获得的奖励,相应地更新表格。

我们使用称为贝尔曼方程(bellman equation)的更新来对Q表进行更新。==该方程表明,给定动作的长期预期奖励来自于当前动作的即时奖励,以及来自未来最佳动作的预期奖励==。公式如下:

Eq 1. Q(s,a)=r+\lambda(maxQ(s'+a'))

这个公式说明,给定动作a和状态s的q值,等于当前的奖励r加上未来预期的q值。$\lambda$可以看作未来期望q值和当前奖励相比的权重。以这种方式更新,q表就会慢慢的收敛到在给定状态下和动作下的期望收益。下面一段python代码就是基于FrozenLake游戏的Q-table的算法实现。

import gym
import numpy as np
#Load the environment
env = gym.make('FrozenLake-v0')
#Implement Q-Table learning algorithm
#Initialize table with all zeros
Q = np.zeros([env.observation_space.n,env.action_space.n])
# Set learning parameters
lr = .85
y = .99
num_episodes = 2000
#create lists to contain total rewards and steps per episode
#jList = []
rList = []
for i in range(num_episodes):
    #Reset environment and get first new observation
    s = env.reset()
    rAll = 0
    d = False
    j = 0
    #The Q-Table learning algorithm
    while j < 99:
        j+=1
        #Choose an action by greedily (with noise) picking from Q table
        a = np.argmax(Q[s,:] + np.random.randn(1,env.action_space.n)*(1./(i+1)))
        #Get new state and reward from environment
        s1,r,d,_ = env.step(a)
        #Update Q-Table with new knowledge
        Q[s,a] = Q[s,a] + lr*(r + y*np.max(Q[s1,:]) - Q[s,a])
        rAll += r
        s = s1
        if d == True:
            break
    #jList.append(j)
    rList.append(rAll)
print "Score over time: " +  str(sum(rList)/num_episodes)
print "Final Q-Table Values"
print Q

神经网络和Q-learning

现在你可能会想,q-table方法效果不错,但是很难扩展。虽然很容易为一个简单的游戏建立16*4的表,但是在任何现代游戏或者现实世界环境中可能的状态数量几乎都是无限大的。对于大多数有趣的问题,q-table方法太简单了。所以我们需要另一种方法能够描述状态,并且生成Q值。这就是为什么我们需要神经网络,我们可以将任意数量的可能状态表示为向量,并学习将它们映射为Q值。

在FrozenLake例子中,我们将采用单层网络,该网络会将状态编码为独热码(one-hot vector),并且生成一个四维的Q值向量。我们可以使用Tensorflow来选择网络的层数,激活函数和输入类型,这都上文中Q表格方法办不到的。使用神经网络时,更新的方法和Q表是不同的,我们将使用反向传播算法更新损失函数。

Eq 2. Loss=\sum(Qtarget-Q)^2

如果读者不熟悉深度学习/神经网络,可以从这里开始学习。

这里给出基于tensorflow实现的简单Q网络:

import gym
import numpy as np
import random
import tensorflow as tf
import matplotlib.pyplot as plt
#Load the environment
env = gym.make('FrozenLake-v0')
#The Q-Network Approach
#Implementing the network itself

tf.reset_default_graph()
These lines establish the feed-forward part of the network used to choose actions
inputs1 = tf.placeholder(shape=[1,16],dtype=tf.float32)
W = tf.Variable(tf.random_uniform([16,4],0,0.01))
Qout = tf.matmul(inputs1,W)
predict = tf.argmax(Qout,1)

#Below we obtain the loss by taking the sum of squares difference between the target and prediction Q values.
nextQ = tf.placeholder(shape=[1,4],dtype=tf.float32)
loss = tf.reduce_sum(tf.square(nextQ - Qout))
trainer = tf.train.GradientDescentOptimizer(learning_rate=0.1)
updateModel = trainer.minimize(loss)

#Training the network
init = tf.initialize_all_variables()

# Set learning parameters
y = .99
e = 0.1
num_episodes = 2000
#create lists to contain total rewards and steps per episode
jList = []
rList = []
with tf.Session() as sess:
    sess.run(init)
    for i in range(num_episodes):
        #Reset environment and get first new observation
        s = env.reset()
        rAll = 0
        d = False
        j = 0
        #The Q-Network
        while j < 99:
            j+=1
            #Choose an action by greedily (with e chance of random action) from the Q-network
            a,allQ = sess.run([predict,Qout],feed_dict={inputs1:np.identity(16)[s:s+1]})
            if np.random.rand(1) < e:
                a[0] = env.action_space.sample()
            #Get new state and reward from environment
            s1,r,d,_ = env.step(a[0])
            #Obtain the Q' values by feeding the new state through our network
            Q1 = sess.run(Qout,feed_dict={inputs1:np.identity(16)[s1:s1+1]})
            #Obtain maxQ' and set our target value for chosen action.
            maxQ1 = np.max(Q1)
            targetQ = allQ
            targetQ[0,a[0]] = r + y*maxQ1
            #Train our network using target and predicted Q values
            _,W1 = sess.run([updateModel,W],feed_dict={inputs1:np.identity(16)[s:s+1],nextQ:targetQ})
            rAll += r
            s = s1
            if d == True:
                #Reduce chance of random action as we train the model.
                e = 1./((i/50) + 10)
                break
        jList.append(j)
        rList.append(rAll)
print "Percent of succesful episodes: " + str(sum(rList)/num_episodes) + "%"

当神经网络学习解决FrozenLake问题时,结果证明它并不像Q-table方法一样有效。==虽然神经网络允许更大的灵活性,但是它们以Q-learning的稳定性为代价==。我们简单的Q网络还可以有很多的期缴来达到更好的效果,==一个称为经验回放(Experience Replay)另一个称为目标网络冻结(Freezing Target Networks)==。这些改进方法和其他的调整方法是深度增强学习能够起作用的关键,我们回来后续的章节中更详细的探讨有关理论。

如果你觉得这篇文章对你有帮助,可以关注原作者,或者打赏作者。

如果你想要继续看到我翻译的文章,也可以专注专栏。第一次翻译,希望能和大家一起交流。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,117评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,963评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 107,897评论 0 240
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,805评论 0 203
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,208评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,535评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,797评论 2 311
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,493评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,215评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,477评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,988评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,325评论 2 252
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,971评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,055评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,807评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,544评论 2 271
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,455评论 2 266

推荐阅读更多精彩内容