如何用TensorFlow训练聊天机器人(附github)

前言

原文:https://blog.csdn.net/wangyangzhizhou/article/details/78119339

实际工程中很少有直接用深度学习实现端对端的聊天机器人,但这里我们来看看怎么用深度学习的seq2seq模型来实现一个简易的聊天机器人。这篇文章将尝试使用TensorFlow来训练一个基于seq2seq的聊天机器人,实现根据语料库的训练让机器人回答问题。

seq2seq

关于seq2seq的机制原理可看之前的文章《深度学习的seq2seq模型》

循环神经网络

在seq2seq模型中会使用到循环神经网络,目前流行的几种循环神经网络包括RNN、LSTM和GRU。这三种循环神经网络的机制原理可看之前的文章《循环神经网络》 《LSTM神经网络》 《GRU神经网络》

训练样本集

主要是一些QA对,开放数据也很多可以下载,这里只是随便选用一小部分问题和回答,存放的格式是第一行为问题,第二行为回答,第三行又是问题,第四行为回答,以此类推。

数据预处理

要训练就肯定要将数据转成数字,可以用0到n的值来表示整个词汇,每个值表示一个单词,这里用VOCAB_SIZE来定义。还有问题的最大最小长度,回答的最大最小长度。除此之外还要定义UNK、GO、EOS和PAD符号,分别表示未知单词,比如你超过 VOCAB_SIZE范围的则认为未知单词,GO表示decoder开始的符号,EOS表示回答结束的符号,而PAD用于填充,因为所有QA对放到同个seq2seq模型中输入和输出都必须是相同的,于是就需要将较短长度的问题或回答用PAD进行填充。

limit = {'maxq':10,'minq':0,'maxa':8,'mina':3}UNK ='unk'GO =''EOS =''PAD =''VOCAB_SIZE =1000

1

2

3

4

5

6

7

8

9

10

11

12

按照QA长度的限制进行筛选。

deffilter_data(sequences):filtered_q, filtered_a = [], []    raw_data_len = len(sequences) //2foriinrange(0, len(sequences),2):        qlen, alen = len(sequences[i].split(' ')), len(sequences[i +1].split(' '))ifqlen >= limit['minq']andqlen <= limit['maxq']:ifalen >= limit['mina']andalen <= limit['maxa']:                filtered_q.append(sequences[i])                filtered_a.append(sequences[i +1])    filt_data_len = len(filtered_q)    filtered = int((raw_data_len - filt_data_len) *100/ raw_data_len)    print(str(filtered) +'% filtered from original data')returnfiltered_q, filtered_a

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

我们还要得到整个语料库所有单词的频率统计,还要根据频率大小统计出排名前n个频率的单词作为整个词汇,也就是前面对应的VOCAB_SIZE。另外我们还需要根据索引值得到单词的索引,还有根据单词得到对应索引值的索引。

defindex_(tokenized_sentences, vocab_size):freq_dist = nltk.FreqDist(itertools.chain(*tokenized_sentences))    vocab = freq_dist.most_common(vocab_size)    index2word = [GO] + [EOS] + [UNK] + [PAD] + [x[0]forxinvocab]    word2index = dict([(w, i)fori, winenumerate(index2word)])returnindex2word, word2index, freq_dist

1

2

3

4

5

6

前面也说到在我们的seq2seq模型中,对于encoder来说,问题的长短是不同的,那么不够长的要用PAD进行填充,比如问题为”how are you”,假如长度定为10,则需要将其填充为”how are you pad pad pad pad pad pad pad”。对于decoder来说,要以GO开始,以EOS结尾,不够长还得填充,比如”fine thank you”,则要处理成”go fine thank you eos pad pad pad pad pad “。第三个要处理的则是我们的target,target其实和decoder的输入是相同的,只不过它刚好有一个位置的偏移,比如上面要去掉go,变成”fine thank you eos pad pad pad pad pad pad”。

defzero_pad(qtokenized, atokenized, w2idx):data_len = len(qtokenized)# +2 dues to '' and ''idx_q = np.zeros([data_len, limit['maxq']], dtype=np.int32)    idx_a = np.zeros([data_len, limit['maxa'] +2], dtype=np.int32)    idx_o = np.zeros([data_len, limit['maxa'] +2], dtype=np.int32)foriinrange(data_len):        q_indices = pad_seq(qtokenized[i], w2idx, limit['maxq'],1)        a_indices = pad_seq(atokenized[i], w2idx, limit['maxa'],2)        o_indices = pad_seq(atokenized[i], w2idx, limit['maxa'],3)        idx_q[i] = np.array(q_indices)        idx_a[i] = np.array(a_indices)        idx_o[i] = np.array(o_indices)returnidx_q, idx_a, idx_odefpad_seq(seq, lookup, maxlen, flag):ifflag ==1:        indices = []elifflag ==2:        indices = [lookup[GO]]elifflag ==3:        indices = []forwordinseq:ifwordinlookup:            indices.append(lookup[word])else:            indices.append(lookup[UNK])ifflag ==1:returnindices + [lookup[PAD]] * (maxlen - len(seq))elifflag ==2:returnindices + [lookup[EOS]] + [lookup[PAD]] * (maxlen - len(seq))elifflag ==3:returnindices + [lookup[EOS]] + [lookup[PAD]] * (maxlen - len(seq) +1)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

然后将上面处理后的结构都持久化起来,供训练时使用。

构建图

encoder_inputs = tf.placeholder(dtype=tf.int32, shape=[batch_size, sequence_length])decoder_inputs = tf.placeholder(dtype=tf.int32, shape=[batch_size, sequence_length])targets = tf.placeholder(dtype=tf.int32, shape=[batch_size, sequence_length])weights = tf.placeholder(dtype=tf.float32, shape=[batch_size, sequence_length])

1

2

3

4

创建四个占位符,分别为encoder的输入占位符、decoder的输入占位符和decoder的target占位符,还有权重占位符。其中batch_size是输入样本一批的数量,sequence_length为我们定义的序列的长度。

cell = tf.nn.rnn_cell.BasicLSTMCell(hidden_size)cell = tf.nn.rnn_cell.MultiRNNCell([cell] * num_layers)

1

2

创建循环神经网络结构,这里使用LSTM结构,hidden_size是隐含层数量,用MultiRNNCell是因为我们希望创建一个更复杂的网络,num_layers为LSTM的层数。

results, states = tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq(

    tf.unstack(encoder_inputs, axis=1),    tf.unstack(decoder_inputs, axis=1),    cell,    num_encoder_symbols,    num_decoder_symbols,    embedding_size,    feed_previous=False)

1

2

3

4

5

6

7

8

9

使用TensorFlow为我们准备好了的embedding_rnn_seq2seq函数搭建seq2seq结构,当然我们也可以自己从LSTM搭起,分别创建encoder和decoder,但为了方便直接使用embedding_rnn_seq2seq即可。使用tf.unstack函数是为了将encoder_inputs和decoder_inputs展开成一个列表,num_encoder_symbols和num_decoder_symbols对应到我们的词汇数量。embedding_size则是我们的嵌入层的数量,feed_previous这个变量很重要,设为False表示这是训练阶段,训练阶段会使用decoder_inputs作为decoder的其中一个输入,但feed_previous为True时则表示预测阶段,而预测阶段没有decoder_inputs,所以只能依靠decoder上一时刻输出作为当前时刻的输入。

logits = tf.stack(results, axis=1)loss = tf.contrib.seq2seq.sequence_loss(logits, targets=targets, weights=weights)pred = tf.argmax(logits, axis=2)train_op = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(loss)

1

2

3

4

接着使用sequence_loss来创建损失,这里根据embedding_rnn_seq2seq的输出来计算损失,同时该输出也可以用来做预测,最大的值对应的索引即为词汇的单词,优化器使用的事AdamOptimizer。

创建会话

withtf.Session() as sess:    ckpt = tf.train.get_checkpoint_state(model_dir)ifckptandckpt.model_checkpoint_path:        saver.restore(sess, ckpt.model_checkpoint_path)else:        sess.run(tf.global_variables_initializer())    epoch =0whileepoch <5000000:        epoch = epoch +1print("epoch:", epoch)forstepinrange(0,1):            print("step:",step)            train_x, train_y, train_target = loadQA()            train_encoder_inputs = train_x[step* batch_size:step* batch_size + batch_size, :]            train_decoder_inputs = train_y[step* batch_size:step* batch_size + batch_size, :]            train_targets = train_target[step* batch_size:step* batch_size + batch_size, :]            op = sess.run(train_op, feed_dict={encoder_inputs: train_encoder_inputs, targets: train_targets,                                              weights: train_weights, decoder_inputs: train_decoder_inputs})            cost = sess.run(loss, feed_dict={encoder_inputs: train_encoder_inputs, targets: train_targets,                                            weights: train_weights, decoder_inputs: train_decoder_inputs})            print(cost)step=step+1ifepoch %100==0:            saver.save(sess, model_dir +'/model.ckpt', global_step=epoch + 1)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

创建会话开始执行,这里会用到tf.train.Saver对象来保存和读取模型,保险起见可以每隔一定间隔保存一次模型,下次重启会接着训练而不用从头重新来过,这里因为是一个例子,QA对数量不多,所以直接一次性当成一批送进去训练,而并没有分成多批。

预测

with tf.device('/cpu:0'):    batch_size = 1sequence_length = 10num_encoder_symbols = 1004num_decoder_symbols = 1004embedding_size = 256hidden_size = 256num_layers = 2encoder_inputs = tf.placeholder(dtype=tf.int32, shape=[batch_size, sequence_length])    decoder_inputs = tf.placeholder(dtype=tf.int32, shape=[batch_size, sequence_length])    targets = tf.placeholder(dtype=tf.int32, shape=[batch_size, sequence_length])    weights = tf.placeholder(dtype=tf.float32, shape=[batch_size, sequence_length])    cell = tf.nn.rnn_cell.BasicLSTMCell(hidden_size)    cell = tf.nn.rnn_cell.MultiRNNCell([cell] * num_layers)    results, states = tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq(        tf.unstack(encoder_inputs, axis=1),        tf.unstack(decoder_inputs, axis=1),        cell,        num_encoder_symbols,        num_decoder_symbols,        embedding_size,        feed_previous=True,    )    logits = tf.stack(results, axis=1)    pred = tf.argmax(logits, axis=2)    saver = tf.train.Saver()    with tf.Session() as sess:        module_file = tf.train.latest_checkpoint('./model/')        saver.restore(sess, module_file)map= Word_Id_Map()        encoder_input =map.sentence2ids(['you','want','to','turn','twitter','followers','into','blog','readers'])        encoder_input = encoder_input +[3fori inrange(0, 10-len(encoder_input))]        encoder_input = np.asarray([np.asarray(encoder_input)])        decoder_input = np.zeros([1, 10])print('encoder_input : ', encoder_input)print('decoder_input : ', decoder_input)        pred_value = sess.run(pred, feed_dict={encoder_inputs: encoder_input, decoder_inputs: decoder_input})print(pred_value)        sentence =map.ids2sentence(pred_value[0])print(sentence)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

预测阶段也同样要创建相同的模型,然后将训练时保存的模型加载进来,然后实现对问题的回答的预测。预测阶段我们用cpu来执行就行了,避免使用GPU。创建图的步骤和训练时基本一致,参数也要保持一致,不同的地方在于我们要将embedding_rnn_seq2seq函数的feed_previous参数设为True,因为我们已经没有decoder输入了。另外我们也不需要损失函数和优化器,仅仅提供预测函数即可。

创建会话后开始执行,先加载model目录下的模型,然后再将待测试的问题转成向量形式,接着进行预测,得到输出如下: 

[‘how’, ‘do’, ‘you’, ‘do’, ‘this’, ‘’, ‘’, ‘’, ‘’, ‘’]。

github

https://github.com/sea-boat/seq2seq_chatbot.git

以下是广告相关阅读

========广告时间========

公众号的菜单已分为“分布式”、“机器学习”、“深度学习”、“NLP”、“Java深度”、“Java并发核心”、“JDK源码”、“Tomcat内核”等,可能有一款适合你的胃口。

鄙人的新书《Tomcat内核设计剖析》已经在京东销售了,有需要的朋友可以购买。感谢各位朋友。

为什么写《Tomcat内核设计剖析》

=========================

相关阅读:

《LSTM神经网络》

《循环神经网络》

《深度学习的seq2seq模型》

《机器学习之神经网络》

《GRU神经网络》

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,847评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,208评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,587评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,942评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,332评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,587评论 1 218
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,853评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,568评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,273评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,542评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,033评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,373评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,031评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,073评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,830评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,628评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,537评论 2 269

推荐阅读更多精彩内容