朴素贝叶斯分类器

# -*- coding: UTF-8 -*- 
from numpy import *

#获取输入词条和分类标签
def loadataset():
    postinglist=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],\
    ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],\
    ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],\
    ['stop', 'posting', 'stupid', 'worthless', 'garbage'],\
    ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],\
    ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    classvec=[0,1,0,1,0,1]
    return postinglist,classvec

#获取词条的所有单词集合(词汇表),以列表形式返回
def createvocablist(dataset):
    vocabset=set()
    for i in dataset:
        vocabset=vocabset|set(i)
    return list(vocabset)

#输入待分类词条,测试词条在词汇表中是否出现,记为1
#此处为词集模型,只判断特征值出现与否,对出现频率未加考虑
def setofwords2vec(vocabset,input):
    inputvec=[0]*len(vocabset)
    for word in input:
        if word in vocabset:
            inputvec[vocabset.index(word)]=1
        else:
            print 'the word %s is not in the vocabset' %word
    return inputvec

#词袋模型。对多次出现的特征值累加计数
def bagofwords2vec(vocabset,input):
    inputvec=[0]*len(vocabset)
    for word in input:
        if word in vocabset:
            inputvec[vocabset.index(word)]+=1
        else:
            print 'the word %s is not in the vocabset' %word
    return inputvec

#返回类先验概率和似然函数 <ndarray形式>
def trainnb(trainmatrix,traincategory):
    numtraindoc=len(trainmatrix)
    numwords=len(trainmatrix[0])
    positive=sum(traincategory)/float(numtraindoc)    #计算垃圾词条的概率,先验概率
    p0num=ones(numwords);p1num=ones(numwords)
    p0sum=0.0;  p1sum=0.0
    for i in range(numtraindoc):
        if traincategory[i]==1:
            p1num+=trainmatrix[i]   #2个list无法相加,故引入numpy进行对应位置的运算
            p1sum+=sum(trainmatrix[i])
        else:
            p0num+=trainmatrix[i]
            p0sum+=sum(trainmatrix[i])
    p0vect=log(p0num/p0sum)
    p1vect=log(p1num/p1sum)
    return p0vect,p1vect,positive

#贝叶斯公式判断不同分类的概率大小
def classifynb(vec2classify,p0vect,p1vect,positive):
    p1=sum(vec2classify*p1vect)+log(positive)
    p0=sum(vec2classify*p0vect)+log(1-positive)
    if p1>p0:
        return 1
    else:
        return 0

#分类未知词条
def testingnb():
    listvec,classvec=loadataset()
    myvocablist=createvocablist(listvec)
    trainmat=[]
    for doc in listvec:
        trainmat.append(bagofwords2vec(myvocablist,doc))  #获取每个词条在词汇表出现与否的列向量
    p0vect,p1vect,positive=trainnb(trainmat,classvec)
    testentry=['love','my','dalmation']
    thisdoc=array(bagofwords2vec(myvocablist,testentry))
    print testentry,'classified as:',classifynb(thisdoc,p0vect,p1vect,positive)
    testentry=['stupid','garbage']
    thisdoc=array(bagofwords2vec(myvocablist,testentry))
    print testentry,'classified as:',classifynb(thisdoc,p0vect,p1vect,positive)

#解析文本文件
def textparse(bigstring):
    import re
    listoftokens=re.split(r'\W*',bigstring)
    return [i.lower() for i in listoftokens if len(i)>2]

#测试算法,使用朴素贝叶斯进行交叉验证
def spamtext():
    dataset=[]
    category=[]    #类别标签
    vocabset=[]    #词汇表
    for i in range(1,26):
        a=open('/Users/enniu/Desktop/jqxx/machinelearninginaction/Ch04/email/ham/%d.txt' %i).read()
        dataset.append(textparse(a))
        category.append(0)
    for i in range(1,26):
        b=open('/Users/enniu/Desktop/jqxx/machinelearninginaction/Ch04/email/spam/%d.txt' %i).read()
        dataset.append(textparse(b))
        category.append(1)
    vocabset=createvocablist(dataset)  #获取输入词条的所有词汇表

    #随机选择10个样本作为测试集
    testset=[]         #测试样本序号
    trainset=range(50) #训练样本序号。此步通过索引来操作,不需要更改词集列表
    for i in range(10):
        randindex=int(random.uniform(0,len(trainset)))
        testset.append(trainset[randindex])
        del trainset[randindex]

    #计算剩余40个样本的似然概率.[P(x1|spam),P(x2|spam),P(x3|spam),...]
    trainmat=[]
    trainclass=[]
    for i in trainset:
        trainmat.append(setofwords2vec(vocabset,dataset[i]))
        trainclass.append(category[i])
    p0vect,p1vect,positive=trainnb(trainmat,trainclass)
    #return p0vect,p1vect,positive

    #计算正确与错误的概率
    errorcount=0
    for i in testset:
        wordvect=setofwords2vec(vocabset,dataset[i])
        precategory=classifynb(wordvect,p0vect,p1vect,positive)
        if precategory!=category[i]:
            errorcount+=1
    print 'the error rate is: ',float(errorcount)/len(testset)

if __name__=='__main__':
    i=0
    while i<=10:
        spamtext()
        i=i+1
    

# -*- coding: UTF-8 -*- 
from numpy import *

#获取输入词条和分类标签
def loadataset():
    postinglist=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],\
    ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],\
    ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],\
    ['stop', 'posting', 'stupid', 'worthless', 'garbage'],\
    ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],\
    ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    classvec=[0,1,0,1,0,1]
    return postinglist,classvec

#获取词条的所有单词集合(词汇表),以列表形式返回
def createvocablist(dataset):
    vocabset=set()
    for i in dataset:
        vocabset=vocabset|set(i)
    return list(vocabset)

#输入待分类词条,测试词条在词汇表中是否出现,记为1
#此处为词集模型,只判断特征值出现与否,对出现频率未加考虑
def setofwords2vec(vocabset,input):
    inputvec=[0]*len(vocabset)
    for word in input:
        if word in vocabset:
            inputvec[vocabset.index(word)]=1
        else:
            print 'the word %s is not in the vocabset' %word
    return inputvec

#词袋模型。对多次出现的特征值累计计数
def bagofwords2vec(vocabset,input):
    inputvec=[0]*len(vocabset)
    for word in input:
        if word in vocabset:
            inputvec[vocabset.index(word)]+=1
        else:
            print 'the word %s is not in the vocabset' %word
    return inputvec

#返回类先验概率和似然函数 <ndarray形式>
def trainnb(trainmatrix,traincategory):
    numtraindoc=len(trainmatrix)
    numwords=len(trainmatrix[0])
    positive=sum(traincategory)/float(numtraindoc)    #计算垃圾词条的概率,先验概率
    p0num=ones(numwords);p1num=ones(numwords)
    p0sum=0.0;  p1sum=0.0
    for i in range(numtraindoc):
        if traincategory[i]==1:
            p1num+=trainmatrix[i]   #2个list无法相加,故引入numpy进行对应位置的运算
            p1sum+=sum(trainmatrix[i])
        else:
            p0num+=trainmatrix[i]
            p0sum+=sum(trainmatrix[i])
    p0vect=log(p0num/p0sum)
    p1vect=log(p1num/p1sum)
    return p0vect,p1vect,positive

#贝叶斯公式判断不同分类的概率大小
def classifynb(vec2classify,p0vect,p1vect,positive):
    p1=sum(vec2classify*p1vect)+log(positive)
    p0=sum(vec2classify*p0vect)+log(1-positive)
    if p1>p0:
        return 1
    else:
        return 0

#分类未知词条
def testingnb():
    listvec,classvec=loadataset()
    myvocablist=createvocablist(listvec)
    trainmat=[]
    for doc in listvec:
        trainmat.append(bagofwords2vec(myvocablist,doc))  #获取每个词条在词汇表出现与否的列向量
    p0vect,p1vect,positive=trainnb(trainmat,classvec)
    testentry=['love','my','dalmation']
    thisdoc=array(bagofwords2vec(myvocablist,testentry))
    print testentry,'classified as:',classifynb(thisdoc,p0vect,p1vect,positive)
    testentry=['stupid','garbage']
    thisdoc=array(bagofwords2vec(myvocablist,testentry))
    print testentry,'classified as:',classifynb(thisdoc,p0vect,p1vect,positive)

if __name__=='__main__':
    testingnb()
    
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 156,069评论 4 358
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,212评论 1 287
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 105,912评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,424评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,741评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,194评论 1 206
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,553评论 2 307
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,289评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 33,923评论 1 237
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,251评论 2 240
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,775评论 1 255
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,144评论 2 249
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,698评论 3 228
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 25,936评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,658评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,214评论 2 267
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,159评论 2 258

推荐阅读更多精彩内容