十大数据挖掘算法之Apriori

一、Apriori算法简介

1.1. 关联分析

在介绍Apriori算法之前我们需要先了解一下“关联分析”。关联分析指的是在大数据集中发现物品之间隐含关系,关联分析的一个著名案例就是“尿布与啤酒”。这些关系可以有两种形式:频繁项集关联规则,频繁项集是经常出现在一块的物品的集合,关联规则暗示两种物品之间可能存在很强的关系。而关联分析的目的就是发现频繁项集和发现关联规则

交易号码 商品
0 牛奶,莴笋
1 莴笋,尿布,啤酒,甜菜
2 牛奶,尿布,啤酒,橙汁
3 莴笋,牛奶,尿布,啤酒
4 莴笋,牛奶,尿布,橙汁

上面的交易清单中,集合{啤酒,尿布,牛奶}就是频繁项集的一个例子,也可以找到“尿布 -> 啤酒”的关联规则。

关联规则还可以应用于网站流量分析,电商商品推荐,流媒体音乐推荐等。

那么如何定义这些隐含关系?为此我们引入支持度和可信度的概念。

一个项集的支持度被定义为数据集中包含该项集的记录所占比例。例如,{尿布}的支持度为4/5,{尿布,啤酒}的支持度为3/5。

可信度是针对例如{尿布} -> {啤酒}的关联规则来定义的,这条规则的可信度定义为“支持度({尿布,啤酒})/ 支持度(尿布)”,则其可信度为3/4=0.75,这意味着对于包含“尿布”的所有记录,我们的规则对其中75%的记录都适用。

1.2. Apriori原理

假设有商品0、1、2、3,如何对给定的集合{0,3},计算其支持度?

先列一下所有可能的项集组合:
{0,1,2,3,01,02,03,12,13,23,012,013,023,123,0123},共有15种组合方式。对于包含N种物品的数据集共有“2的N次方 - 1”种项集组合,对于现代计算机而言,这种呈指数爆炸增长的数据规模,即便007也要很长时间才能完成运算。

为了降低计算时间,研究人员发现一种Apriori原理,即如果某个项集是频繁的,那么它的所有子集也是频繁的,反过来说,如果一个项集是非频繁集,那么它的所有超集也是非频繁的。借助Apriori原理,我们就可以减少关系不大的项集。

比如,已知{2,3}是非频繁的,借助Apriori原理,那么{0,2,3},{1,2,3}以及{0,1,2,3}也是非频繁的,所以这三个项集的支持度就不需要计算了。

二、使用Apriori算法来发现频繁集

Apriori算法的大概步骤:

  1. 首先生成所有单个物品的项集列表;
  2. 扫描交易记录,计算单物品项集的支持度;
  3. 查看哪些单物品项集支持度满足要求所需的最小支持度;
  4. 去掉不满足最小支持度的项集;
  5. 对剩下的集合组合生成两元素的项集;
  6. 再重新扫描交易记录,去掉不满足最小支持度的项集;
  7. 重复,直到所有项集都被去掉。

2.1 生成一个候选项集

from numpy import *

def loadDataSet():
    '''创建一个用于测试的简单数据集'''
    return [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]

def createC1(dataSet):
    C1 = []
    for transaction in dataSet:
        for item in transaction:
            if not [item] in C1:
                C1.append([item])
                
    C1.sort()
    return map(frozenset, C1)

这第一部分的代码中,定义了loadDataSet()函数和createC1()函数,loadDataSet()函数返回一个二维列表,createC1()函数返回一个包含所有单个物品的项集列表,此列表使用了Python中的frozenset类型,目的是使其不可改变。

def scanD(D, Ck, minSupport):
    '''
    三个参数分别是:数据集、候选项集列表以及最小支持度
    '''
    ssCnt = {}
    for tid in D:
        for can in Ck:
            if can.issubset(tid):
                if not can in ssCnt.keys(): 
                    ssCnt[can]=1
                else: 
                    ssCnt[can] += 1
    numItems = float(len(D))
    retList = []
    supportData = {}
    for key in ssCnt:
        support = ssCnt[key]/numItems
        if support >= minSupport:
            retList.insert(0,key)
        supportData[key] = support
    return retList, supportData

此处定义的scanD()函数用于扫描交易记录并返回满足最小支持度的项集。简单运行测试一下:

dataSet = loadDataSet()
print(dataSet)
C1 = list(createC1(dataSet))
print(C1)
D = list(map(set,dataSet))
print(D)
# 有了集合形式的数据,就可以去掉那些不满足最小支持度的项集了。这里使用0.5作为最小支持度。
L1, suppData0 = scanD(D,C1,0.5)
print(L1)
# 打印结果:
[[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]
[frozenset({1}), frozenset({2}), frozenset({3}), frozenset({4}), frozenset({5})]
[{1, 3, 4}, {2, 3, 5}, {1, 2, 3, 5}, {2, 5}]
[frozenset({5}), frozenset({2}), frozenset({3}), frozenset({1})]

L1的结果表明,L1列表中的每个单物品项集至少出现在50%以上的交易记录中,而物品4并没有达到最小支持度。

2.2 组织完整的Apriori算法

def aprioriGen(Lk, k): 
    '''
    参数为:频繁项集列表Lk,项集个数k
    输出候选项集Ck
    '''
    retList = []
    lenLk = len(Lk)
    for i in range(lenLk):
        for j in range(i+1, lenLk): 
            # 前k个项相同时,将两个集合合并
            L1 = list(Lk[i])[:k-2]
            L2 = list(Lk[j])[:k-2]
            L1.sort()
            L2.sort()
            if L1==L2: #if first k-2 elements are equal
                retList.append(Lk[i] | Lk[j]) #set union
    return retList

def apriori(dataSet, minSupport = 0.5):
    C1 = list(createC1(dataSet))
    D = list(map(set, dataSet))
    L1, supportData = scanD(D, C1, minSupport)
    L = [L1]
    k = 2
    while (len(L[k-2]) > 0):
        Ck = aprioriGen(L[k-2], k)
        Lk, supK = scanD(D, Ck, minSupport)#scan DB to get Lk
        supportData.update(supK)
        L.append(Lk)
        k += 1
    return L, supportData

此处定义两个函数:apriori()和aprioriGen(),其中主函数是apriori(),它会调用aprioriGen()来创建候选项集Ck。给apriori()函数传递一个数据集以及一个支持度,函数会生成候选项集的列表。执行一下试试:

L,suppData = apriori(dataSet)
print(L)
# 打印结果
[[frozenset({5}), frozenset({2}), frozenset({3}), frozenset({1})],
 [frozenset({2, 3}), frozenset({3, 5}), frozenset({2, 5}), frozenset({1, 3})],
 [frozenset({2, 3, 5})],
 []]

L的结果表明列表中的项出现在50%的交易记录中。

3. 从频繁项集中挖掘关联规则

我们得到频繁项集“{尿布,啤酒}”,可能存在关联规则“尿布 -> 啤酒”,但“啤酒 -> 尿布”就不一定成立,所以我们需要将关联规则给挖出来。

def generateRules(L, supportData, minConf=0.7):
    '''
    参数为:频繁项集列表、包括那些频繁项集支持数据的字典、最小可信度阈值
    支持度数据来自scanD返回的suppDara字典
    函数生成一个包含可信度的规则列表
    '''
    bigRuleList = []
    for i in range(1, len(L)):
        # 只获取有两个或更多元素的集合
        for freqSet in L[i]:
            H1 = [frozenset([item]) for item in freqSet]
            if (i > 1):
                rulesFromConseq(freqSet, H1, supportData, bigRuleList, minConf)
            else:
                calcConf(freqSet, H1, supportData, bigRuleList, minConf)
    return bigRuleList         

def calcConf(freqSet, H, supportData, brl, minConf=0.7):
    prunedH = []
    for conseq in H:
        conf = supportData[freqSet]/supportData[freqSet-conseq] #计算可信度
        if conf >= minConf: 
            print(freqSet-conseq,'-->',conseq,'conf:',conf)
            brl.append((freqSet-conseq, conseq, conf))
            prunedH.append(conseq)
    return prunedH

def rulesFromConseq(freqSet, H, supportData, brl, minConf=0.7):
    m = len(H[0])
    if (len(freqSet) > (m + 1)): #尝试进一步合并
        Hmp1 = aprioriGen(H, m+1)#创建Hm+1条新候选规则
        Hmp1 = calcConf(freqSet, Hmp1, supportData, brl, minConf)
        if (len(Hmp1) > 1):    #至少需要两个集合合并
            rulesFromConseq(freqSet, Hmp1, supportData, brl, minConf)

代码源自《机器学习实战》,修改了一下Python2与Python3之间的兼容问题后直接复制粘贴了。执行一下吧:

rules = generateRules(L,suppData,minConf=0.7)
print(rules)
# 打印结果
frozenset({5}) --> frozenset({2}) conf: 1.0
frozenset({2}) --> frozenset({5}) conf: 1.0
frozenset({1}) --> frozenset({3}) conf: 1.0
[(frozenset({5}), frozenset({2}), 1.0), (frozenset({2}), frozenset({5}), 1.0), (frozenset({1}), frozenset({3}), 1.0)]

4. 简单示例:发现毒蘑菇的相似特征

我们现在有一个关于野生蘑菇的数据集,寻找毒蘑菇的一些公共特征。

数据集的前几行如下:

1 3 9 13 23 25 34 36...
2 3 9 14 23 26 34 36...
2 4 9 15 23 27 34 36...

第一个特征表示有毒或者可食用。如果有毒则为2,可食用则为1.下一个特征是蘑菇伞的形状,有六种可能的值,分别用整数3~8表示。

mushDatSet = [line.split() for line in open('mushroom.dat').readlines()]
L,suppData = apriori(mushDatSet,minSupport=0.3)
# 在结果中可以搜索包含有毒特征值2的频繁项集
for item in L[1]:
    if item.intersection('2'):
        print(item)
# 打印结果
frozenset({'28', '2'})
frozenset({'2', '53'})
frozenset({'23', '2'})
frozenset({'34', '2'})
frozenset({'36', '2'})
frozenset({'2', '59'})
frozenset({'2', '63'})
frozenset({'67', '2'})
frozenset({'2', '76'})
frozenset({'85', '2'})
frozenset({'2', '86'})
frozenset({'90', '2'})
frozenset({'93', '2'})
frozenset({'39', '2'})

也可以在更大项集,比如 L[3]中重复上述过程。

在这个例子,我们并没有寻找关联规则,因为有时候我们只需要找到一些相关的特征,比如毒蘑菇的特征。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,560评论 4 361
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,104评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,297评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,869评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,275评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,563评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,833评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,543评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,245评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,512评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,011评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,359评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,006评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,062评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,825评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,590评论 2 273
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,501评论 2 268

推荐阅读更多精彩内容