MapReduce实战:Auto Complete

预备知识:

1、Ngram语言模型:

》该模型基于这样一种假设:第n个词的出现只与前面N-1个词相关,而与其它任何词都不相关,整句的概率就是各个词出现概率的乘积。这些概率可以通过直接从语料中统计N个词同时出现的次数得到。

》假设一个字符串w=w1w2….wn; wi可以是一个字,一个词或者一个短语,我们把一个可以计算 P(W) 或者P(wn|w1,w2…wn-1) 的模型称为语言模型,Language model,或者写成LM。

》目的:在给定语料库中,计算一个字符串出现的概率问题。

作用:a、机器翻译 P(high winds tonight) > P(large winds tonight);b、拼写纠正,The office is about fifteen minuets from my house P(about fifteen minutes from) > P(about fifteen minuets from);c、语音识别 P(I saw a van) >> P(eyes awe of an);d、文本分类;还有自动摘要生成、问答系统等。

》如何计算字符串W出现的概率,即如何计算p(w)

例如:如何计算P(its, water, is, so, transparent, that)出现的概率呢?

这就涉及联合概率和条件概率的知识了。

回顾一下联合概率公式:

P(A,B,C,D) = P(A)P(B|A)P(C|A,B)P(D|A,B,C) (1)

一般地: P(x1,x2,x3,…,xn) = P(x1)P(x2|x1)P(x3|x1,x2)…P(xn|x1,…,xn-1) (2)

所以字符串“its water is so transparent”出现的概率计算方法是

P(“its water is so transparent”) =

P(its) × P(water|its) × P(is|its water)

× P(so|its water is) × P(transparent|its water is so)

但是,但我们计算P(wn|w1,w2…wn-1)的时候,比如

由于要计算wi出现的概率,就要去统计前i-1词出现的情况,假设词库中有M个词,就有M^(i-1)种可能,这样导致计算量太大了。

于是,我们做一个简单的马尔科夫假设(Markov Assumption):假设第i个词出现的概率只与前面的N--1个词有关,这就是N-gram语言模型的由来。比如计算 的概率时候,我们假设单词the出现的概率只与前面出现的一个词有关,那么

因此,在假设第i个词出现的概率只与前面的N-1个词出现有关的前提下,在计算p(wi|w1w2…wi-1)的时候,就变成了公式4,在计算p(w)=p(w1w2….wn)的时候就变成了公式5,这就是N-gram语言模型。

当N=1的时候,

,叫一元模型,Unigram model;

N=2的时候,

,叫二元模型,Bigram model;

当N=3的时候,

,叫 三元模型,trigram model;

好了,接下来针对二元模型,我们如何去估计这些概率参数呢?

用的方法就是最大似然估计,也就是公式(6)和(7)了!

C(wi-1)表示词wi-1在语料库中出现的频数。

一、项目的整体工作流程:

后端:在hadoop上构建两个Job,一个用于从数据集构建Ngram Library,一个根据概率来构建Library model,生成数据导入database中。(N-gram)

前端:利用JQuery, PHP, Ajax来调用database数据,实现实时autocompletion,在网页端展示搜索引擎的Auto Completion 功能。

二、主要实现部分:

1、job1:

Map:从HDFS中读入数据集,拆分成2-n个单词的组合,发送给Reduce处理

Reduce:统计key出现的次数,结果输出至HDFS中。

2、job2:

Map:读取Job1 的处理结果,如读入的为: this is cool/t20,则将其处理为:outputkey:this is ,outputvalue:cool=20的形式,发送至Reduce

Reduce:接收的形式为如this -> <is=30, is book=10>

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,219评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,363评论 1 293
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,933评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,020评论 0 206
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,400评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,640评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,896评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,597评论 0 199
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,327评论 1 244
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,581评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,072评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,399评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,054评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,083评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,849评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,672评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,585评论 2 270

推荐阅读更多精彩内容