Python玩微信(1):初探wxpy

0.294字数 376阅读 16884

Python玩微信(1):初探wxpy

1.前期准备

wxpy项目主页里面有它的相关介绍
pyecharts项目主页,是python与百度echarts的桥梁,我用来做数据分析

2.查看微信好友男女比例

from wxpy import *
from pyecharts import Pie

bot = Bot(cache_path = True)   #定义一个微信机器人
friends = bot.friends(update=False)   #获取更新好友列表
male = female = other = 0    

for i in friends[1:]:     #[1:]是因为整个好友列表里面自己市在第一个,排除掉
    sex = i.sex
    if sex == 1:
        male += 1
    elif sex == 2:
        female += 1
    else:
        other += 1
total = len(friends[1:])   #计算总数

#下面为分析
attr = ["男性","女性","其他"]
v1 = [float(male),float(female),float(other)]
pie = Pie("饼图-圆环图示例", title_pos='center')
pie.add("", attr, v1, radius=[40, 75], label_text_color=None, is_label_show=True,
        legend_orient='vertical', legend_pos='left')
pie.render("sex.html")

结果输出如图


enter description here
enter description here

没想到我微信里面女性好友是男性好友的一半-。- , 可能是跟我大学专业有关吧

3.查看好友地区分布

from wxpy import *
from pyecharts import Map

#因为获取的列表城市都没有带市字,而pyecharts需要带个市字
b = '市'
def s(x):
    return x+b

#因为我好友里面除了广东的外和其他的,剩下非广东的寥寥无几,所以只提取广东的
bot = Bot(cache_path = True)
friends = bot.friends(update=False).search(province = '广东')
citys = []   
for f in friends :
    city = f.city
    citys.append(city)
r = map(s,citys)
cityss = list(r)

#为城市计数
a = {}
for i in cityss:
    a[i] = cityss.count(i)
a.pop('市')

#把字典进行有序拆分为2个列表
attrs = []
values = []
for value, attr in a.items():
    values.append(attr)
    attrs.append(value)
#开始绘图
map = Map("广东地图示例", width=1200, height=600)
map.add("", attrs, values, maptype='广东', is_visualmap=True, visual_text_color='#000')
map.render("city.html")

数据呈现如下:


enter description here
enter description here

我微信里面潮州多的原因就是我是潮州人啊,然后广州多的原因可能就是我在广州读书吧,很多人大学才玩微信的,如果是那时候定位,就直接定位为广州了
这个图要GIF观看才好看点,可怜我的七牛云流量-。-(免费版只有10G可以用啊!!!有人看一次就1M没了)

4.查看好友签名,并利用jieba分词,再制作成词云

from wxpy import *
import re
import jieba
import matplotlib.pyplot as plt
from wordcloud import WordCloud
import PIL.Image as Image

bot = Bot(cache_path = True)
friends = bot.friends(update=False)
male = female = other = 0

#提取好友签名,并去掉span,class,emoji,emoji1f3c3等的字段
signatures = []
for i in friends:
    signature = i.signature.strip().replace("span", "").replace("class", "").replace("emoji", "")
# 正则匹配过滤掉emoji表情,例如emoji1f3c3等
    rep = re.compile("1f\d.+")
    signature = rep.sub("", signature)
    signatures.append(signature)
# 拼接字符串
text = "".join(signatures)
# jieba分词
wordlist_jieba = jieba.cut(text, cut_all=True)
wl_space_split = " ".join(wordlist_jieba)

# wordcloud词云
my_wordcloud = WordCloud(background_color="white", 
                         max_words=2000, 
                         max_font_size=1000, 
                         random_state=42,
                         font_path='./hanyi.ttf').generate(wl_space_split)

plt.imshow(my_wordcloud)
plt.axis("off")
plt.show()

结果显示如图:


enter description here
enter description here

结果可以发现,我好友里面最多的就是“努力”了,其次是“自己”,“一个”,“可以,一生”。还有“生活,成为,半生,喜欢,当下,轮滑,珍惜”
哈哈哈,出现轮滑是因为我好友列表里面很多都是学校里面的轮滑协会的。不过出现代理就。。。。。。(捂脸)

推荐阅读更多精彩内容